AI听起来太逼真了。呼叫接收者报告说,Duplex bot感到“蠕动”,因为它与人类几乎没有区别。这是“不可思议的山谷”或当类似人的AI模仿一个人时让人感到阴森恐怖的例子,但似乎并不完全真实。这种现实主义上的鸿沟导致了一种排斥和不信任的感觉。
与客户建立热烈可信赖的关系需要只有高端开发人员才能提供的特殊联系。为了使AI获得未来消费者的信任并实现更好的业务成果,开发人员需要对不可思议的低谷及其后果有扎实的了解。
考虑使用AI的企业应在采用AI之前就AI如何影响消费者的信任度考虑很多方面。
神秘的内部
人工智能的逼真度令人不安,但是这种负面的情绪反应并不是什么新鲜事。看着栩栩如生的娃娃,尸体甚至假肢可以触发相同的效果。这是因为死气沉沉但像人类一样的物体使我们想起了自己的死亡。科幻电影和恐怖电影充分利用了这种现象,使图像太接近舒适。
逼真的AI也令人不安,因为人们受到了生物学上的激励,以避开那些看起来生病,不健康或“虚假”的人。这就是所谓的“避免病原体”,从生物学上讲可以预防危险的疾病。逼真的AI似乎几乎是人类,但几乎人类还不够。
人们既不信任也不了解AI
人类已经进化为控制环境。结果,我们不愿将任务委派给既不被完全理解又不至于故障安全的算法。因此,当AI通常无法达到人类标准时,我们就会敏锐地意识到这一点。
例如,Uber的自动驾驶汽车尚未能够在自动驾驶中安全运行。根据加州大学伯克利分校的研究,一种AI住房系统着手向少数房屋所有者收取更高的住房贷款利率。
即使对于Google Duplex,用户也怀疑AI是否能够正确理解其餐厅预订的简单细节。
人工智能被认为是不可信任的,因为无论成功有多频繁,即使失败了几次,这些情况仍然存在。尽管便利性很吸引人,但消费者在使用该技术时仍要求可靠性,控制性和舒适性。
诸如Amazon Alexa之类的语音助手为用户提供了一种快乐的媒体。AI不太逼真,并且很容易理解如何控制技术。人们只相信自己的理解。但是像大多数人一样,栩栩如生的AI并不为人所知。
区分和理解信任的关键
为了获得信任,AI开发人员和企业必须确保为用户提供更舒适的AI体验。最重要的是,这意味着AI应该显得更人性化。
人们希望诸如Google Duplex之类的技术宣布自己为AI,这将使他们对这项技术更加满意。在视觉上,可以创建AI使其看起来可爱而不是解剖上准确。如果AI易于与人类区分开,则人们更可能采用AI。
尽管机器学习算法过于复杂以至于人类无法理解,但是透明性和可解释性却产生了信任。为此,共享有关AI决策过程的信息可以为机器学习算法的“黑匣子”增光添彩。在一项研究中,如果允许人们对算法进行调整以使其满意,那么人们将来更可能信任和使用AI。
这表明控制感和熟悉感是促进人们接受逼真的AI的关键。
最后,如果消费者不信任企业的AI系统,请回到老式的方式,并使用人工与客户进行交流–并寻求虚拟助手等第三方资源的帮助,以确保任务不会繁重。
为何消费者不信任栩栩如生的AI
为了向人们开放栩栩如生的AI,公司必须避开不可思议的低谷。需要熟悉,教育和视觉上的区别,以帮助人们在仿人技术的出现时感到舒适。