很多人已经意识到,人工智能(AI)以多种方式改善了人们的工作和生活。人工智能系统已经应用在呼叫中心,用于自动驾驶汽车,并通过快餐店的自助服务台接受订单。而在未来的日子里,人工智能和机器学习将成为更加突出的技术,颠覆各行业领域的发展。当人们将工作和生活中的大部分事情交给机器实施时,需要了解哪种道德规范正在推动人工智能的应用和发展,以及谁在定义其发展之路。
许多首席信息官已开始在用户可能看不到的领域(例如自动化仓库)中采用人工智能技术。但是特别是当首席信息官希望将人工智能的使用扩展到更多面向客户的领域时,他们必须意识需要回答一些道德问题,否则就有可能成为责任的一部分。
以下是五个需要回答的问题,来揭示伦理道德如何影响人工智能系统,以及首席信息官现在需要意识到争论这些问题的原因。
1.可以让机器承担责任吗?
2019年,Uber公司开发的自动驾驶汽车在亚利桑那州坦佩市一条街道上撞死一名行人,因为这辆自动驾驶汽车未将其识别为行人,因为行人没有经过人行横道。作为人类驾驶员,将会意识到是这是一名乱穿马路的行人,并采取措施及时躲避,那么此次事件,谁应该为这个疏忽负责?
亚利桑那州一家法院裁定,由于坐在车中的“安全驾驶员”疏忽大意而导致没有及时处理而获罪,但终有一天汽车真正实现无人驾驶。在这种情况下,Uber公司需要为此负责吗?这是激光雷达技术的问题吗?如果忘记了对违章行为的解释,那是编写代码的程序员的问题吗?
尽管自动驾驶汽车被认为比疲劳、醉酒或分心的人类驾驶员安全得多,但还是会造成人员伤亡,那么会有多少?根据美国交通部公路交通安全管理局的调查数据,2017年全球平均每行驶1亿公里就有1.16人死亡。相比之下,Waymo公司开发的自动驾驶汽车自从2009年推出以来已行驶了1000万英里。如果没有数十亿公里的安全测试,就不可能知道自动驾驶汽车的安全性。
无人驾驶汽车造成的每一次伤亡事件都可能向责任方提起诉讼,那么是否每家租车公司和汽车公司都会卷入这种诉讼浪潮中?
为什么首席信息官应该关心这个问题:因为采用人工智能,责任模型可能会转移到生产者而不是消费者。对于那些执行这些解决方案的人来说,需要研究这可能如何影响其业务,以便为此做好充分的准备。
2.可以解释无法解释的原因吗?
人工智能和机器学习模型的任务是做出对人们生活有重大影响的关键决策。可以告诉领导者该雇用哪个求职者,或者告诉法官可以判处罪犯什么样的刑罚。因此面临的问题是如何解释做出这样决定的原因。
深度学习模型是通过神经网络进行工作,这些神经网络将接收的输入数据处理成为结果。人们无法轻易地通过这一系列的决定来了解是如何做出的。当无法解释为什么一名犯人因为犯同一种罪行被判两个月的刑期,而另一名犯人被判一年的刑期时,这成为一个问题。
这一点在现实世界中失败了,因为种族偏见逐渐渗透到司法程序中的人类决策中。这种偏差会不知不觉地通过数据集传递给人工智能模型。因此问责是关键。
为什么首席信息官应该关心这个问题:因为每个人都想知道人工智能软件是如何得出结论的,尤其是当这个决定看起来是错误的时候。神经网络使得回答这些问题变得困难。人们可以输入模型输入以查看获得的输出结果,但是很大程度上是由人类来解释机器的工作,而不是具有确定性。而目前,人们必须接受这样的事实。
3.人工智能世界中是否存在隐私?
而在未来,家中的冰箱会提醒人们需要补充牛奶。而在超市,经过饼干货架时,会突然出现一个虚拟广告牌,宣布奥利奥饼干正在打折。当浏览货架时,会在每件商品旁边弹出营养信息。像《少数派报告》这样的科幻电影很快将成为现实。
虽然这种信息的爆炸式增长和便利性受到人们的欢迎,但实现这样事实的工具却存在争议。大多数人都意识到,每次打开手机,都会放弃一定程度的隐私权。人工智能加剧了这种情况,人们对此感到担忧。调研机构Genpact公司最近发布的一份研究报告发现,71%的消费者担心人工智能会继续侵犯他们的隐私。面部识别软件越来越先进,可以从人群中提取人脸特征。有些国家已经在部署面部识别系统来跟踪和控制某些群体,这只是监控范围更加广泛的一个方面。
尽管有人坚决反对这项技术,但却不一定知道哪些公司或政府正在积极使用面部识别技术。一些科技公司正在避免产生这种争议,像Clearview这样的其他公司则向美国执法机构出售人工智能面部识别软件。
为什么首席信息官应该关心这个问题:Facebook和谷歌公司在数据隐私方面遇到了麻烦,监管机构正越来越多地管理宽松的数据隐私标准。在组织收集客户的大量数据,并使用人工智能和机器学习之类的工具从这些数据中提取更多信息时,需要将客户隐私放在其思考的最前沿。否则,当这成为技术上所有问题的起源时,将会面临诉讼和处罚。
4.能够控制恶意攻击吗?
无论技术有什么崇高的意图,总有一些人会尝试利用它谋取私利。人工智能也不例外。黑客已经在使用它来进行复杂的网络钓鱼攻击,并针对各种组织进行恶意的网络攻击。
僵尸网络正在积极尝试通过在社交媒体网络上传播虚假和误导性信息来影响政治选举。这些大量虚假宣传活动在2016年美国总统大选期间是如此有效,以至于有人质疑它是否会影响最终选举结果。社交媒体公司已经承诺加强对其网络的监管,希望在有害信息误导广大受众之前,能够及时删除或标记错误信息。
有些甚至使用人工智能技术来改变人们对现实的看法。Deepfake是人工智能生成的视频或音频记录,伪造一些人员的言行。例如通过发布埃隆·马斯克的视频评论特斯拉(Tesla)公司不能实现季度盈利的预期,从而压低股价。而视觉威胁情报机构Sensity公司表示,Deepfake的实例数量预计每六个月翻一番,不久将成为一种主流。如果无法采用取证技术来化解这一技术带来的问题,那么Deepfake将会造成毁灭性的后果。
为什么首席信息官应该关心这个问题:网络安全形势越来越复杂。人工智能为黑客提供了一个可怕的新工具。从确保网络安全到冒充企业首席执行官,人们需要了解这些威胁并及时应对。
5.谁为人工智能伦理负责?
所有这些问题都有一个共同的线索,那就是,谁来负责建立和执行人工智能系统的道德标准?
谷歌公司和微软公司等科技巨头表示,政府部门应介入制定适当监管人工智能的法律。要达成共识并非易事,并且需要来自众多利益相关者的投入,以确保社会所面临的问题不会传递到人工智能模型中。到目前为止,这种责任已经落到了外部监督者和一些科技公司敢于表态的员工身上。在遭到员工连续数月的抗议之后,谷歌公司取消了其军用无人机人工智能项目。
为此,许多公司都任命首席道德官来帮助指导业务部门进入这一新的领域。
为什么首席信息官要问这个问题:在国家和国际层面上制定人工智能法规还有很长的路要走。人类必须自我监督如何使用人工智能。具有争议的人工智能实现将会面临更多的障碍。有问题的做法最终将被发现。当这种情况发生时,企业将被迫做出反应,而不是积极主动地制定和实施合乎伦理道德的人工智能政策。
在实现真正具有伦理首先的人工智能之前,还有很长的路要走。通过提出这些棘手的问题,可以确定人们希望人工智能在生活和组织中扮演的角色,现在正逢其时,如今每天在让人工智能解决更重要的问题,这就是人们发现自己陷入这些哲学问题的原因。如果愿意询问和探索,那么答案就在那里。
原文Artificial Intelligence (AI) ethics: 5 questions CIOs should ask,作者:Mark Runyon
【51CTO译稿,合作站点转载请注明原文译者和出处为51CTO.com】