AIoT应用开发:搞定语音对话机器人=ASR+LLM+TTS
创作时间:
作者:
@小白创作中心
AIoT应用开发:搞定语音对话机器人=ASR+LLM+TTS
引用
CSDN
1.
https://blog.csdn.net/u010522887/article/details/142374036
本文将介绍如何在ARM开发板或Android手机上实现一个语音对话机器人。通过整合语音识别(ASR)、大语言模型(LLM)和语音合成(TTS)技术,我们可以构建一个能够实时对话的AIoT设备。
实现思路
整体实现思路如下:
- 语音识别(ASR):使用云端接口进行语音识别,这里选用siliconflow提供的免费接口。
- 智能问答(LLM):本地部署qwen-0.5b模型,并通过OneAPI进行调用。
- 语音合成(TTS):使用EdgeTTS进行语音合成。
详细实现步骤
1. 语音识别(ASR)
原打算在板子上部署语音识别模型,发现小模型效果不太好,而大模型的耗时不能忍。故先采用云端接口跑通流程,这里选用siliconflow提供的免费接口。
def asr_sensevoice(file_path="output/test.mp3"):
url = "https://api.siliconflow.cn/v1/audio/transcriptions"
headers = {
"accept": "application/json",
"Authorization": "Bearer xxx"
}
files = {
"file": open(file_path, "rb"), # The key "file" should match the expected parameter name on the server
"model": (None, "iic/SenseVoiceSmall") # "None" is used because model is just a string, not a file
}
response = requests.post(url, files=files, headers=headers)
data = response.json()
return data["text"]
2. 智能问答(LLM)
在"如何在手机端部署大模型?"中,我们本地部署了qwen-0.5b并接入了OneAPI,直接调用即可。
3. 语音合成(TTS)
使用EdgeTTS进行语音合成,代码如下:
def tts_edge(text='', filename='data/audios/tts.wav'):
communicate = edge_tts.Communicate(text=text,
voice="zh-CN-XiaoxiaoNeural", # zh-HK-HiuGaaiNeural
rate='+0%',
volume= '+0%',
pitch= '+0Hz')
communicate.save_sync(filename)
4. 整体实现
最后,我们把 ASR + LLM + TTS 串联起来,关键流程如下:
- 基于音频录制实现的逻辑,一旦有音频文件保存到本地,即触发对话功能;
- 语音识别:如果识别结果开头包含关键词kwords,才会触发 LLM;
- 智能问答:LLM 基于语音识别结果,做出文字答复;
- 语音合成:TTS 结果保存到本地;
- 音频播放:把保存在本地的 TTS 结果,通过蓝牙音箱播放。
完整代码如下:
import android
droid = android.Android()
def asr_llm_tts(filename='xx.wav', llm_list=['qwen-0.5b'], tts_path='/sdcard/audios', kwords='小爱'):
asr_text = asr_sensevoice(filename)
logging.info(f"ASR 识别结果:{asr_text}")
if asr_text.startswith(kwords):
messages = [
{'role': 'system', 'content': sys_base_prompt},
{'role': 'user', 'content': asr_text}
]
result = unillm(llm_list, messages)
logging.info(f"LLM 结果:{result}")
filename = f'{tts_path}/{datetime.now().strftime("%Y%m%d_%H%M%S")}.wav'
tts_edge(result, filename=filename)
if os.path.exists(filename):
tag = os.path.basename(filename).split('.')[0]
# 查看是否有音频播放
play_list = droid.mediaPlayList().result
for item in play_list:
res = droid.mediaPlayInfo(item)
isplaying = res.result['isplaying']
if not isplaying:
droid.mediaPlayClose(item)
# 开始播放音频
res = droid.mediaPlay(filename, tag, True)
# 打印播放信息
logging.info(droid.mediaPlayInfo(tag).result)
else:
logging.error("TTS 失败。")
值得注意的是:asr_llm_tts()
函数耗时较长,会阻塞主线程,导致无法及时从音频流中读取数据,引起下面的错误:
p = pyaudio.PyAudio()
stream = p.open()
data = stream.read(chunk)
File "/home/aidlux/.local/lib/python3.8/site-packages/pyaudio/__init__.py", line 570, in read
return pa.read_stream(self._stream, num_frames,
OSError: [Errno -9981] Input overflowed
这是因为stream.read(chunk)
需要定期被调用,以清空音频输入缓冲区,如果这个调用被延迟,缓冲区就会溢出。
为了解决这个问题,有两种方法:
- 异步处理:将
asr_llm_tts()
放在一个异步任务中执行,这样主线程可以继续处理音频流,而不会因为等待异步任务完成而阻塞。 - 多线程处理:创建一个新的线程来处理
asr_llm_tts()
,这样就不会干扰主线程的音频流处理。
import threading
threading.Thread(target=asr_llm_tts, args=(filename,)).start()
效果展示
下面是程序运行的日志信息:
程序正在运行,按 Ctrl+C 停止...
开始录音...
ASR 识别结果:
低音量持续,停止录音。
录音已保存为 data/audios/20240917_094434.wav
ASR 识别结果:小爱小爱,夸夸我。
LLM 结果:你好!初次见面,很高兴认识你。你的问题我可以帮忙回答。你最近的生活和工作状态如何?遇到什么问题了吗?我会尽力帮助你。
{'loaded': True, 'duration': 13344, 'looping': False, 'isplaying': True, 'tag': '20240917_094440', 'position': 0, 'url': '/sdcard/audios/20240917_094440.wav'}
至此,我们已经给开发板装上了大脑、耳朵和嘴巴,并实现了实时语音对话,一个AI机器人的雏形总算捏出来了。
热门推荐
哈尔滨小针刀手术:选择医院和医生的注意事项
十大经典春晚相声 历届春晚相声一等奖 春晚经典相声大合集
选择去屑洗发水也要讲科学
云南特色美食:品味多元文化的独特魅力
轮胎参数大揭秘:选对轮胎有多难?
让老年生活更具幸福感 南岸举行养老护理技能大赛,打造“一刻钟养老服务圈”
孙晓云田小华春联,蛇年文化大揭秘
2岁宝宝出现侧脑室略宽应该如何处理
精细化工企业如何降低成本
旅游业对当地居民的影响有哪些?表现在五个方面!
中医院专家详解梨状肌综合征:从病因到防治全攻略
全面掌握!梨状肌综合征的解剖、变异、检查、诊断及治疗、拉伸和争议
【关注】有一种腿痛叫“梨状肌综合症”
电影《赤壁》:三国经典战役的银幕再现
官渡之战:改变中国历史的关键一役
曹操的神操作:三国战役中的经典战术揭秘
如何举报交通违法行为?这些举报方法是否有效且合法?
Omega-3脂肪酸:守护大脑健康的秘密武器
深海鱼油:让大脑年轻十岁的科学补充指南
肺癌晚期患者夜间盗汗怎么办?
秋冬感冒必备:鸡肉和鸡蛋怎么吃才对?
陈小平主任谈肺腺癌晚期患者心理护理:7种实用方法助力患者安度难关
肺腺癌晚期患者的营养调理秘籍
感冒了,你真的知道怎么吃吗?
冬季防感冒,医生推荐这几款暖心美食
感冒靠“吃”能好吗?维生素C的真相与饮食指南
冬季流感高发,中医教你六种止咳食疗方
面对至亲离世,我们如何疗愈哀伤
西安市第五医院小针刀手术术前心理指南
小针刀治疗颈椎病:效果显著,但需谨慎选择