问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

AIoT应用开发:搞定语音对话机器人=ASR+LLM+TTS

创作时间:
作者:
@小白创作中心

AIoT应用开发:搞定语音对话机器人=ASR+LLM+TTS

引用
CSDN
1.
https://blog.csdn.net/u010522887/article/details/142374036

本文将介绍如何在ARM开发板或Android手机上实现一个语音对话机器人。通过整合语音识别(ASR)、大语言模型(LLM)和语音合成(TTS)技术,我们可以构建一个能够实时对话的AIoT设备。

实现思路

整体实现思路如下:

  1. 语音识别(ASR):使用云端接口进行语音识别,这里选用siliconflow提供的免费接口。
  2. 智能问答(LLM):本地部署qwen-0.5b模型,并通过OneAPI进行调用。
  3. 语音合成(TTS):使用EdgeTTS进行语音合成。

详细实现步骤

1. 语音识别(ASR)

原打算在板子上部署语音识别模型,发现小模型效果不太好,而大模型的耗时不能忍。故先采用云端接口跑通流程,这里选用siliconflow提供的免费接口。

def asr_sensevoice(file_path="output/test.mp3"):
    url = "https://api.siliconflow.cn/v1/audio/transcriptions"
    headers = {
        "accept": "application/json",
        "Authorization": "Bearer xxx"
    }
    files = {
        "file": open(file_path, "rb"),  # The key "file" should match the expected parameter name on the server
        "model": (None, "iic/SenseVoiceSmall")  # "None" is used because model is just a string, not a file
    }
    response = requests.post(url, files=files, headers=headers)
    data = response.json()
    return data["text"]

2. 智能问答(LLM)

在"如何在手机端部署大模型?"中,我们本地部署了qwen-0.5b并接入了OneAPI,直接调用即可。

3. 语音合成(TTS)

使用EdgeTTS进行语音合成,代码如下:

def tts_edge(text='', filename='data/audios/tts.wav'):
    communicate = edge_tts.Communicate(text=text,
        voice="zh-CN-XiaoxiaoNeural", # zh-HK-HiuGaaiNeural
        rate='+0%',
        volume= '+0%',
        pitch= '+0Hz')
    communicate.save_sync(filename)

4. 整体实现

最后,我们把 ASR + LLM + TTS 串联起来,关键流程如下:

  • 基于音频录制实现的逻辑,一旦有音频文件保存到本地,即触发对话功能;
  • 语音识别:如果识别结果开头包含关键词kwords,才会触发 LLM;
  • 智能问答:LLM 基于语音识别结果,做出文字答复;
  • 语音合成:TTS 结果保存到本地;
  • 音频播放:把保存在本地的 TTS 结果,通过蓝牙音箱播放。

完整代码如下:

import android
droid = android.Android()
def asr_llm_tts(filename='xx.wav', llm_list=['qwen-0.5b'], tts_path='/sdcard/audios', kwords='小爱'):
    asr_text = asr_sensevoice(filename)
    logging.info(f"ASR 识别结果:{asr_text}")
    if asr_text.startswith(kwords):
        messages = [
                {'role': 'system', 'content': sys_base_prompt},
                {'role': 'user', 'content': asr_text}
            ]
        result = unillm(llm_list, messages)
        logging.info(f"LLM 结果:{result}")
        filename = f'{tts_path}/{datetime.now().strftime("%Y%m%d_%H%M%S")}.wav'
        tts_edge(result, filename=filename)
        if os.path.exists(filename):
            tag = os.path.basename(filename).split('.')[0]
            # 查看是否有音频播放
            play_list = droid.mediaPlayList().result
            for item in play_list:
                res = droid.mediaPlayInfo(item)
                isplaying = res.result['isplaying']
                if not isplaying:
                    droid.mediaPlayClose(item)
            # 开始播放音频
            res = droid.mediaPlay(filename, tag, True)
            # 打印播放信息
            logging.info(droid.mediaPlayInfo(tag).result)
        else:
            logging.error("TTS 失败。")

值得注意的是:asr_llm_tts()函数耗时较长,会阻塞主线程,导致无法及时从音频流中读取数据,引起下面的错误:

p = pyaudio.PyAudio()
stream = p.open()
data = stream.read(chunk)
  File "/home/aidlux/.local/lib/python3.8/site-packages/pyaudio/__init__.py", line 570, in read
    return pa.read_stream(self._stream, num_frames,
OSError: [Errno -9981] Input overflowed

这是因为stream.read(chunk)需要定期被调用,以清空音频输入缓冲区,如果这个调用被延迟,缓冲区就会溢出。

为了解决这个问题,有两种方法:

  • 异步处理:将asr_llm_tts()放在一个异步任务中执行,这样主线程可以继续处理音频流,而不会因为等待异步任务完成而阻塞。
  • 多线程处理:创建一个新的线程来处理asr_llm_tts(),这样就不会干扰主线程的音频流处理。
import threading
threading.Thread(target=asr_llm_tts, args=(filename,)).start()

效果展示

下面是程序运行的日志信息:

程序正在运行,按 Ctrl+C 停止...
开始录音...
ASR 识别结果:
低音量持续,停止录音。
录音已保存为 data/audios/20240917_094434.wav
ASR 识别结果:小爱小爱,夸夸我。
LLM 结果:你好!初次见面,很高兴认识你。你的问题我可以帮忙回答。你最近的生活和工作状态如何?遇到什么问题了吗?我会尽力帮助你。
{'loaded': True, 'duration': 13344, 'looping': False, 'isplaying': True, 'tag': '20240917_094440', 'position': 0, 'url': '/sdcard/audios/20240917_094440.wav'}

至此,我们已经给开发板装上了大脑、耳朵和嘴巴,并实现了实时语音对话,一个AI机器人的雏形总算捏出来了。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号