近日,谷歌DeepMind CEO Demis Hassabis在一场演讲中,抛出这个惊人的说法。
与Hassabis的自信满满不同,Hinton用从谷歌辞职的举动,表明了自己对于AI发展的深切忧思。
而LeCun则一如既往地表示:认为AI会终结人类文明的想法,纯属胡说八道。
Hassabis乐观预言
通用人工智能(AGI)的其中一种定义是,与人类的认知能力相匹配的AI。
Hassabis表示,未来几年内非常可能会出现与人脑一样强大的人工智能。
「过去几年里,AI研究取得的进步令人难以置信。我看不出任何进展会放缓的理由。我认为它甚至可能会加速。所以我认为我们可能只需要几年时间,也许十年之内。」
「我认为我们将在未来几年拥有非常强大、非常通用的系统。」
Hassabis何许人也?
作为谷歌新成立的部门Google DeepMind的CEO,Hassabis最近愈发万众瞩目,意气风发。
让Google Brain和DeepMind两大AI科研主力机构合体,已经是谷歌最后的退路。
权力大大提升的Demis Hassabis,表现出强烈的AGI使命感,和对成功的饥渴感
微软背后的OpenAI开发出的ChatGPT,已经威胁到了谷歌的搜索业务。
而临危受命的Hassabis,在谷歌AI大战的布局中,无疑处于核心。谷歌表示,合体将加速公司在AI领域的进步。
自2010年成立以来,DeepMind的使命就是通过构建能够像人类一样学习、思考和行动的机器,来解决智能难题。
AGI的发展,已然是AI研究业内最热门的话题。
很多人认为,AGI不过是科幻小说中的概念,但无论是Hassabis,还是OpenAI CEO Sam Altman,都公开表达了开发AGI、同时保护人类免受其害的雄心。
据Hassabis透露,现在他新工作的部分内容,就是把AI开发整合到谷歌产品中。而最近AI技术的进步,将改进计算机助手等软件。
在Hassabis看来,我们的确在经历下一个iPhone时刻,而基于AI算法的下一代助手,将带来彻底的转变。
Hassabis说,AI技术的发展需要研究人员、学术界和政府之间的大规模协调,而谷歌是一个负责任的参与者。
这一点,倒是不必质疑,毕竟谷歌为了「负责任的AI」,为了所谓「声誉风险」,将类ChatGPT聊天机器人的发布一延再延。
而自从OpenAI用ChatGPT给全世界打了样,各国的GPT技术都冒了头,潘多拉的魔盒如果已经打开,是否还能有一个暂停按钮呢?
随着ChatGTP、Bard等聊天机器人导致的胡说八道和滥用愈加泛滥,业内对于是否该研究AGI,态度也愈加分歧。
对此,Hassabis也并没有否认。
他承认,虽然他「没有看到任何原因」,让AI的进展会放缓,但需要「使用科学方法以谨慎的方式开发AGI技术」,非常仔细地做可控实验,来了解「底层系统的作用」。
Hinton:我是悲观主义者
对于AI的未来,深度学习之父Hinton的态度显然就悲观多了。
就在前几天,Hinton选择退出效力十年的谷歌,只为自由谈论AI可能给人类造成的风险。
这一决定仿佛一枚重磅炸弹,在业内掀起轩然大波。
而MIT科技评论的记者Will Douglas Heaven,就在这一事件的前四天,采访过Hinton。他的采访稿中,也为我们透露出更多信息。
对于AI是否会比人类更聪明,我忽然改变了自己的看法。
对于GPT-4的能力,Hinton已经感到震惊。他希望公众能提高对AI技术的风险意识。
能自由谈论AI风险,并不是Hinton选择离开谷歌的唯一原因。他希望能把时间花在「更哲学的工作」上。这件事可能性很小,但如果真的发生了,AI就将是一场灾难。
而只要还身在谷歌,就无法对AI安全问题畅所欲言,而毫不顾忌这对谷歌业务的影响。「只要谷歌还在付我一天薪水,我就不能这样做。」
OpenAI在三月发布的GPT-4让Hinton意识到,AI远比他想象的要聪明得多。而AI会往哪里发展,让他感到害怕。「有时我觉得好像外星人已经登陆,但因为它们英语说得很好,所以人们还没意识到。」
1980年代,Hinton就和同事们一起提出了反向传播技术,这种算法使机器学习成为可能,也支撑着如今所有的神经网络。
他们还训练了一个神经网络,来预测句子中的下一个字母,这就是当今大语言模型的前身。
40年来,Hinton一直认为人工神经网络是模仿生物神经网络的糟糕尝试。而如今,状况显然已经改变。
「我们的大脑有100万亿个连接,」Hinton说。「大型语言模型有高达五万亿,最多一万亿。然而,GPT-4知道的比任何人都多数百倍。所以或许它有一个比我们更好的学习算法。
只要把预训练模型和人类学习的速度相比较,就会明白,人类的优势正在消失。
在Hinton看来,如果我们愿意支付更高的计算成本,那么神经网络在学习上就会击败人类。
而每个神经网络都有自己的经验,可以立刻和其他神经网络分享自己学到的东西,好比10000人中只要一个人学到了什么,所有人都知道了。这无疑是一种更新、更好的智能形式。
「你认为超级AI是好是坏,很大程度上取决于你是乐观主义者还是悲观主义者。」
而Hinton说,「我有轻微的抑郁,这就是我害怕的原因。」
现在,BabyAGI和AutoGPT已经可以将聊天机器人与Web浏览器、文字处理器之类的程序连接起来了。
没人能保证,不会把AI用于选举或战争。
如果AI有一天开始说,让我们获得更多的力量,把所有的电力都重新集中到我的芯片上,让我们制作更多自己的副本……人类该怎么办?
而图灵三巨头之一,蒙特利尔大学的教授Yoshua Bengio对此的看法是,自己是不可知论者。
「目前我没有看到任何可靠的论据,证明AI的确有Hinton所认为的那么大的风险,」他说。
「过度的恐惧可能会使人瘫痪,所以我们应该努力将辩论保持在理性的水平。」
在他看来,Hinton的首要任务之一是尝试与技术行业的领导者合作,对如何应对风险达成一致。
但没有人可以否认,AI的发展速度已经超过了社会的步伐。
每隔几个月,AI技术就会有一次飞跃,但立法、条约都需要数年。
LeCun:AI毁灭人类,纯属胡说八道
与Hinton的担忧相比,Meta的首席AI科学家Yann LeCun的态度倒是显得云淡风轻。
他同意Hinton的观点:「毫无疑问,在未来,机器将变得比人类更聪明——在人类聪明的所有领域,这是一个何时以及如何的问题,而不是是否的问题。」
但他对AI的发展方向持完全不同的看法。
「我相信AI将为人类带来新的复兴,但我完全不同意机器仅仅会因为自己更聪明就能主宰人类,更别说摧毁人类了。」
「即使在人类中,最聪明的人也不是最有权力的人,」LeCun说。「最有权力的绝对不是最聪明的人,这种例子可太多了。」
在他看来,虽然大家吵得喋喋不休,但超人AI并不存在。
LeCun表示,他对ChatGPT的表现并不感到惊讶,也不赞成暂停AI的研究。AI作为人类智能的放大器,可能是新文艺复兴的起源。
在最新发表的推特中,LeCun指出,他坚信会有一天出现超级AI。但不是今天,今天的我们甚至连个超级AI的设计都没有。所以现在去聊安全性的问题,就好像1920年去探讨飞机横跨大西洋的安全性。
显然,这条转发的推文,显示了LeCun对于人类智能的信心。
而LeCun也表示,作为ICLR的主席,自己鼓励研究者用LLM来写论文。
IBM:真人要被AI抢饭碗了
大佬们还在畅想未来,但在现实世界里,AI是真的开始取代人类了。
有些科技巨头已经开始光速行动,又是裁员,又是暂缓招聘。
就比如说IBM,这么一家大公司已经宣布要冻结招聘计划了。
原因非常简单,公司CEO Arvind Krishna表示,在可预见的未来几年内,IBM会有大约7800个职位被AI取代。
而这个数字,差不多是IBM所有非面向客户类员工的三分之一。
Krishna表示,不直接面向客户的员工大概有26000人,30%以上的人在五年之内会被AI取代。
但其实IBM员工总共差不多有260000人,上述员工只占差不多十分之一。不过,作为一家坐落在纽约州的巨头公司,假如一下少个小八千人也算是件蔚为壮观的事情。
不过,IBM的内部人士并没有很直接的表达出「我们已经完全停止招聘了」这种意思。
他们很委婉,表示「我们在招聘不面向客户或者不涉及技术的岗位时非常有选择性」。
不管怎么说,IBM在AI发展的大潮下首先表态,已经在业内造成了不小的风波。很多行业在未来可能面临着颠覆性的改变,以及大规模的缩招甚至裁员。
不光员工受影响,就连公司的市值也直接被波及。
Chegg股价直接暴跌30%,只是因为Chegg的CEO在一次会议中承认了ChatGPT对公司的新客增长产生了影响。
要知道,Chegg是一家学习类公司,ChatGPT抢了一堆饭碗。
这次暴跌,是2017年以来的最低价。
学生们一股脑的扑到了ChatGPT上去,Chegg的情况急转直下。
面对这种情况,Chegg的CEO表示,要把AI的发展纳入公司的规划。
他表示,几个月前他和OpenAI的CEO Sam Altman聊过AI+教育的问题。Chegg的CEO认为,公司发展方向要尽快调整,把AI的能力纳入Chegg的服务。
第一步就是推出CheggMate,这是一个和OpenAI合作的项目。
看来,比起忧心AI哪天会毁灭人类,我们眼下更应该做的,是先掂量掂量自己的饭碗还稳不稳。
参考资料:
https://www.businessinsider.com/google-deepmind-ai-smart-human-brain-2023-5
https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/