如今,AI化身——即使用数字形体及/或面部渲染出的AI形象——还远远不像乔丹那么有人格魅力,甚至看起来还有点恐怖。研究表明,人类确实很喜欢开发这种具有类人功能的机器人,但一旦机器的“类人性”超过某个阈值,反而会让人感到可怕——这就是著名的“恐怖谷”理论。创造这个词的机器人专家Masahiro Mori预计,终有一天会出现能够以假乱真的机器人,让我们彻底失去分辨能力。至少在对话层面,这样的AI已经有望实现,彻底打破旧有图灵测试的束缚。
在最近与传奇营销天才Guy Kawasaki的远程视频中,我大胆做出预测:未来两年以内,Guy就将无法区分我本人和我们打造的对话型AI方案Kuki。Guy明显不以为然,但我也没有动摇,打算一步步做出论证。
结合这次对话,我打算向大家公开汇报,说说自己为什么对这样的预测有信心。在本质上,要想在视频通话中实现与人类相信的表现,AI必须获得五大关键实时技术:
- 类人化身
- 类人语音
- 类人情感
- 类人行为
- 类人对话
随着动作捕捉技术(MoCap)与生成对抗神经网络(GAN,也是Deep Fake所依赖的底层机器学习技术)的广泛普及与成本下降,化身方案近年来取得了长足发展。早期动作捕捉要求演员穿上特殊的服装,但整个拍摄与调整过程成本高昂,只有《阿凡达》这类鸿篇巨制才负担得起。但如今,单靠iPhone X与免费游戏引擎软件就足以让动作捕捉“走进寻常百姓家”。众多在线Web服务让创建低分辨率Deep Fake图像与视频变得轻而易举,快速推动这项技术的大众化步伐。但如果不加限制,这项技术也有可能给人类社会造成巨大冲击。事实上,这种进步还催生出新的产业,很多主播开始将自己的面部与表情实时转化为动物形象,甚至出现了“Lil’Miquela”等AI意见领袖。就在上周,Epic Games(〈堡垒之夜〉与虚幻引擎的开发商)公布了MetaHuman创作器,很快每个人都能够免费创造出无限接近于真人的“假脸”。
生成类人语音的技术同样在迅速发展。Amazon、微软与谷歌都提供可灵活消费的云文本到语音转换(TTS)API,以神经网络为基础生成越来越逼真的语音效果。此外,我们还能轻松获取多种自定义语音风格工具,这些工具由人类演员根据一定数量的示例语句建模而成。与现在的高精度语音识别类似,语音合成也将随着算力与训练数据的增强而不断改善。
单有令人信服的AI语音与人脸,还不足以产生价值——必须有生动的表情与之匹配。事实证明,只需要配合前置摄像头,计算机视觉技术就足以分析并生成丰富的面部表情。目前已经有多种API可供您分析文本内容并理解相应的情感。NTT Data等实验室甚至展示了能够实时模仿人类手势与表情的方案;Magic Leap的MICA则能够提供令人印象深刻的非语言化身表情。当然,现有AI还很难摸索出真正自主的精神与情感状态,这方面仍有很长的研究道路要走。
为了避免“恐怖谷”问题,AI必须能够展示出与面部乃至肢体动作相一致的“态度”,并根据对话进程动态触发。南加州大学ICT实验室的Shaprio项目以及众多语音图像初创企业的探索,已经在为游戏角色提供同步口型与面部表情等方面取得了开创性成果。这类系统能够通过化身转换文字表达、分析情感,并通过既定规则调用库内的适当动画,同时结合真实人类活动的视频持续进行机器学习训练。随着研发推进与机器学习发展,这类程序动画有望在两年之后全面实现无缝运作。
类人对话中最生涩、也是最困难的部分,在于大多数聊天机器人仍然挣扎在进行基本对话的及格线上。到目前为止,相较于语音合成及计算机视觉等大获成功的领域,深度学习+更多数据+更强算力的模式还没能在自然语言理解方面取得有意义的突破。
类人AI这个思路极具吸引力,目前已经吸引到3.2亿风险投资;但至少在未来几年当中,除非其中的核心要素得以“解决”,否则一切恐怕仍只是个幻想。随着化身技术真正迈出前进的步伐,人们的期望也会越来越高;而当虚拟助手的仿真面孔无法匹配灵活的大脑与情商表达时,失望之情也会与日俱增。因此,现在预测聊天机器人什么时候能够达到真人水平还为时过早。再说点丧气话:如今的机器智能甚至连基于纯文本的图灵测试都还无法通过。