什么是计算机代码的固定?
是指它在模擬对话过程中,不同对话之间,语气的停顿和间隔都是一样的。
类似疑惑从0到 。
这是因为模型在生成语音时,需要对一系列参数进行预测和控制,包括了音高、语速、音量、停顿等等。
而模型的第一要义是平滑性,也就是生成自然、流畅、没有明显机器感的声音。
为了达到这一点,模型倾向於选择参数空间中最稳定、最平滑的路径,而不是最极端、最不规则的路径。
另外在参数空间里的均值回归,为了最小化损失函数,模型同样会倾向於输出高概率的均值。
说的更直白一些,一旦识別到疑惑这个標籤,ai就將其与一组预设的、固定的语音参数,像语速放慢5%,音调提高 。
所以人工智慧模擬的情绪是假的,余东的疑问是,你们到底能做到哪一步?
只是更多的標籤,更细分的情感表达,还是说真正意义上的情感模擬?
如果林燃说的信誓旦旦,他反而不敢信。
而林燃给的回答,是我也不知道。
这样的回答,让余东內心震惊不已,你们该不会是真的做到了吧。
“林总,臥槽,你们真实现了非结构化、高纬度的实时情感反馈?”余东问道。
林燃说:“如果你只是指这个,那我可以肯定的告诉你,我们確实做到了。这个本身就是左右脑架构要解决的核心问题。
右脑的神经形態晶片本身就具备负责捕捉並生成情绪偏置的功能,它能打破左脑gpu
的理性控制。
你们的晶片研发部门拿到的右脑晶片设计方案里,应该有相关模块,你想了解更具体的技术问题,可以问问他们,我很期待华为研发的右脑晶片。
它能让ai犯错,能让它犹豫,能让它像一个真正的人一样,在交流中產生隨机的、不完美的停顿和反应。
我们想做的更多,我不確定,它真的能够跨过那条鸿沟。“
余东面露迟疑:“什么鸿沟?机器和人之间的鸿沟吗?”
林燃说:“是的,这次的一万个名额,背后关联的其实是一万个角色,我们和腾讯合作,在一个虚擬世界里的一万个角色,我们给每一个角色都生成了人物、背景、成长环境、工作等內容。
现实世界和虚擬世界之间的交互会逐渐完善这个虚擬世界。
我们目前好奇几点,像社会性情感的涌现。
我们好奇,当一万个拥有不完美情感的ai,在一个相对封闭的虚擬社会中开始交互时,它们是否会產生宏观的社会性情感?
它们之间是否会形成群体性的排斥、部落化的认同、甚至是系统性的偏见和歧视?这些情感,並非由我们编码,而是由它们自身的交互逻辑和预设的背景参数,在动態环境中涌现出来的。
智慧能够涌现,那么情感呢?“
余东脸上出现好奇和期待的神色,这是他也好奇的问题。