前沿模型是高度先进的人工智能基础模型,在推动创新、经济增长和科学进步方面具有巨大潜力。不幸的是,前沿模型也具有高度危险的能力。滥用或事故,基础模型可能在全球范围内造成重大伤害和破坏。
了解前沿人工智能带来的风险是2023年人工智能安全峰会的一个关键目标。目标是让世界领先的人工智能技术专家召开会议,讨论人工智能安全国际合作的方法和战略。峰会的另一个关键目标是展示人工智能的安全发展将如何帮助人工智能在全球范围内得到良好利用。这将有助于促进人工智能技术的创新和发展。
里希·苏纳克警告人工智能危险
英国首相里希·苏纳克(Rishi Sunak)在2023年人工智能安全峰会前表示,各国政府必须意识到,他们有能力应对人工智能带来的风险。苏纳克强调,人工智能造成的风险包括制造大规模杀伤性武器、传播错误信息和宣传,甚至逃离人类控制的能力。他还宣布,英国将成立一个人工智能安全研究所,以更好地了解不同的人工智能模型,以及如何减轻人工智能带来的风险。
苏纳克将人工智能技术的快速进步比作工业革命(事实上第四次工业革命的核心基础就是人工智能),并警告称,如果不采取政府层面的行动,人工智能技术可能会使网络攻击“更快、更有效、更大规模”。他还强调,滥用人工智能可能会导致“信任信息的侵蚀”。
根据苏纳克的说法,deepfakes(深度伪装)和超现实机器人可以被用来操纵金融市场,传播假新闻,甚至破坏刑事司法系统。苏纳克认为,人工智能可能会取代人类工人,从而扰乱劳动力市场,并建议对从人工智能取代工人中获利的企业征收“机器人税”。
此次峰会将接待来自全球各地的关键人物,包括谷歌DeepMind首席执行官德米斯·哈萨比斯(Demis Hassabis)、美国副总统卡玛拉·哈里斯(Kamala Harris)和七国集团其他经济体领导人,我国也已被邀请参加峰会。
牛津人工智能专家有异议
牛津大学牛津互联网研究所副教授兼研究主任Brent Mittelstadt不同意苏纳克的某些观点——英国不应该因为对人工智能缺乏适当的了解而急于监管人工智能。Mittelstadt认为,人工智能技术已经完成了一系列令人难以置信的研究,足以开始监管该行业。
Mittelstadt表示,不采取积极主动的监管方式将是一个错误,这将使私营部门和技术发展决定监管何时开始以及未来如何监管。政府应该负责决定何时以及如何监管该行业。
牛津大学哲学学院和人工智能伦理研究所副教授Carissa Veliz也对苏纳克关于人工智能技术的言论感到担忧。Veliz表示,科技高管不是就如何监管人工智能向政府提供建议的合适人选,苏纳克的观点听起来与大型科技公司的观点相似。牛津大学的其他几位人工智能专家也有类似的担忧,并敦促英国政府不要推迟对人工智能行业的监管。