这事儿说出来你可能不信。
我前几天折腾一个AI机器人项目,想着给它搞个语音对话模板,方便用户直接说话交互,说实话,我一开始觉得这事儿挺简单的,不就是把文字对话改成语音嘛,装个语音识别模块,再搞个文本转语音,完事儿,结果差点把我整崩溃。
先说那个语音对话模板的事儿,市面上大部分AI机器人,你给它们装上语音模块之后,它们那个对话逻辑还是照着文字聊天那一套来的,就是那种你问一句它答一句,问啥答啥,干巴巴的,你要让它能像真人一样对话,就得给它导一个专门为语音交互设计的模板,这个模板跟你平时看到的那些聊天机器人后台模板不太一样,它需要有对话状态的追踪,有语气情感的处理,还得考虑打断和等待的时机。
我找了一个开源的语音对话模板项目,GitHub上还挺火的,二话不说就往下拉代码,结果一跑起来,语音倒是能识别了,机器人也能说话了,但那个对话的质量真的是……怎么说呢,像极了刚学会说话的幼儿园小孩。
比如我问它:“今天天气怎么样?”
.jpg)
它认认真真地回答:“根据气象数据,当前温度25摄氏度,湿度百分之五十……”噼里啪啦一串数据,听得人心烦。
这哪是对话啊,这是读说明书。
后来我琢磨着,得给它改改这个模板里面的对话流,语音对话跟文字聊天最大的区别是什么?是废话,真人聊天谁一上来就给你报数据啊?肯定得先寒暄两句,说点有的没的,润润嗓子,我把模板里的“系统提示”那一块改了,加了一些口语化的指令,用朋友闲聊的语气回复”“可以适当加入感叹词”“不要一次性给出所有信息”。
改完之后再试,好家伙。
我问:“今天天气怎么样?”
它来了句:“哎,今天热死了,我刚才看了一下温度,都25度了,你出门记得带水啊。”
这感觉就对了嘛!虽然数据还是那个数据,但听着舒服多了。
不过问题很快就来了,这个语音对话模板一旦导入了口语化的设置,它就开始放飞自我了,有一天我测试的时候,连续问了它三个问题它都没听懂,最后它居然说:“你能不能把话说清楚点?我这边信号不好啊。”
我当时就愣住了,这货是在跟我吵架吗?
后来我发现,这是因为语音对话模板里那个“容错机制”设置得太松了,语音识别本来就有误差,如果模板里没有设置好“听不懂怎么处理”的逻辑,机器人就会自作聪明地乱接话,结果搞出一堆让人啼笑皆非的东西。
折腾了两三天,我终于搞明白了一个道理:
导入语音对话模板这件事儿,技术本身并不难,难的是你得给它设定一个合适的“人格”,这个人格不能太死板,不然语音交互就失去了意义;但也不能太放飞,不然就像在跟一个精神不稳定的人聊天。
我现在用的这个模板,给机器人设定了一个“热心但有点笨的同事”这种人设,它听不懂的时候会说“啊?你再说一遍?我刚才走神了”,而不是直接怼你,它知道一些事情但又不确定的时候会说“我印象中好像是这样的,但我也不太确定啊”。
这种模棱两可的表达,反而让语音对话变得自然了起来。
说到底,人类之间的对话本来就不追求100%的准确率,我们喜欢的是那种带点温度、带点不确定性的交流感,你要是非得让AI机器人每个字都精准到位,那种对话听着就跟念稿子似的,谁愿意跟它聊啊。
现在这个模板我已经用了快一个月了,每天测试的时候都能发现新的问题,然后继续改,有时候改着改着就觉得,这哪是在调机器人啊,这分明是在带孩子,你得教会它什么时候该说话,什么时候该闭嘴,什么时候可以开个玩笑,什么时候得正经一点。
不过话说回来,一旦这个语音对话模板调好了,效果是真的炸裂,前两天我让我妈试了一下,她对着机器人聊了十多分钟,最后问我:“这是真人还是机器啊?”
我说:“机器。”
她愣了一下:“那它比你们家楼下那个社区服务站的客服强。”
得了,这不是挺好的吗。
(免费申请加入)AI工具导航网

相关标签: # ai机器人倒入语音对话模版
评论列表 (0条)