这些专家主要来自加拿大的蒙特利尔学习算法研究所(MILA)、美国信息技术研究及分析公司高德纳(Gartner)、Facebook、亚马逊旗下人工智能研发部门Alexa AI、美国国家航空航天局(NASA),以及许可式邮件营销服务商Mailchimp等组织和机构。
图片来源:RE•WORK
美国信息技术研究及分析公司
高德纳(Gartner)数据科学负责人
Andriy Burkov
在经过有用户参与的试验后,虽然一些公司可能会推出家庭和工作之间点对点的无人驾驶通勤服务,但完全自动驾驶的汽车在2021年仍然是“准备好了”的状态。
另外,全自动驾驶卡车将开始在高速公路上完成从海岸一端至海岸另一端的长距离行驶(整个过程可能需要借助人为的远程监控),不过最后一公里的驾驶还是会由安全员直接操控。
基于Transformer的预训练模型,比如GPT-3,会更加擅长假装智能,这一点也会更加让人不安,并且其假装智能的程度,甚至会让一些人认为其已经实现了智能。
美国国家航空航天局(NASA)机器学习负责人、
图片分享网站Pinterest技术孵化负责人、
《云、移动端和边缘智能设备的实用深度学习》
一书作者
Anirudh Koul
2021年,我十分期待的有两个方面的事物。一个是会变得更大的事物,一个是会变得更小的事物。预测未来的最佳办法就是回首过去(也许可以在过去配置一个长短期记忆网络LSTM)。
两年之内,我们的预训练模型就已经从440MB大小的BERT转变成了350GB大小的GPT-3。我们已经能通过云端租用超级计算机,借助其285000个CPU核和10000个GPU(微软为硅谷大亨联合建立的人工智能非营利组织OpenAI开发的)的计算力。
我们已经实现了在你口袋里的iPhone A14芯片中安装118亿个晶体管。我们已经能够在90秒内训练ImageNet,而十年前,这一训练过程还需要花费数月。
所以,我们可以预见,计算、模型和算法的力量会持续呈指数级别增长,进一步向众人揭示人工智能的新奇魔力。
另一方面,我们现在可以实现BERT精准度,但在使用FastFormers的基础上,CPU推理速度提高了233倍。如今,我们通过NVIDIA Maxine传输视频通话,只需要较之前五百分之一的带宽。我们将训练AutoML模型的时间从GPU运算时长40000小时 (2018年的MNasNet)减少到了3.75小时(2019年的Single-Path NAS)!
单一地关注模型修剪和模型量化,并不是我们对模型的研究主题,而研究主题是实践者已经写好的高效三行代码(TensorFlow模型优化工具箱)。
在2021年,关注小事物的乐趣会持续增长,让使用边缘智能设备的用户获得基于强大模型的神奇体验。
情绪感知初创公司Affectiva
联合创始人兼首席执行官
Dr. Rana el Kaliouby
我们将看到情绪感知人工智能的新用例,以在新冠疫情大流行期间促进在线协作和交流。
在新冠疫情期间,我们比以往更加依赖视频会议。视频会议将大家虚拟地连接起来,让我们得以远程工作、在家学习并展开社交生活。
然而,目前存在的一个较大问题是:这些技术上,情绪感知是盲区。当我们面对面交流时,我们能够传递的信息不仅来自语言本身,我们还能用面部表情、语音语调以及肢体语言来表达自己。但这些技术的最初设计初衷,却并不是来捕捉我们与周围人互动时的细微差别的。
我们也许可以借助人工智能,来在虚拟环境中保留我们人性的那一面。具体而言,能够根据面部表情和声音理解人类细微情绪和复杂认知状态的情绪感知人工智能软件,可以解决疫情期间已经出现的一些技术短板,我们会看到各大公司将其运用于新的用例,比如:
视频会议和虚拟活动——情绪感知人工智能能够提供对人们在虚拟活动或者会议中的情感解读。它能为线上发言者提供真实的观众反馈,让参与者有一种共同的体验,同时能帮助公司在这段紧张时期了解集体的参与度。
线上学习——情绪感知人工智能能够提供学生对线上教育材料和教学的参与反馈。当学生迷惑、紧张或者乏味时,系统就会发出信号。这在疫情期间尤为重要,毕竟有很多学生在网上学习时,都得了“Zoom疲劳症”。
远程医疗——随着远程就诊逐渐替代面对面诊断,情绪感知人工智能能够在患者和医疗提供者之间建立起更有意义的讨论和信任。此外,对患者情绪健康的数据驱动分析也提供了一种心理健康的量化测评方法,而不是让患者用简单的1至10分来自我评估。
博士研究员
Alexia Jolicoeur-Martineau
降噪得分与退火兰格文采样(DSM-ALS)和扩散去噪的变种将开始打破模型生成的记录;它们将击败目前最顶尖的生成式对抗网络(GANs)。
我们还将看到生成式模型的新指标,因为现在的指标IS(inception score)和FID(Frechet Inception Distance score)将会使值接近完美,但仍未实现真实感图形。
人工智能机构Got-It AI
首席科学家兼对话式AI负责人
Chandra Khatri
无代码的人工智能平台、产品和初创企业开始激增:在过去几年里,人们创建了很多强大的深度学习和人工智能工具,比如PyTorch和Tensorflow。工程师们现在准备在现有工具之上构建无代码的人工智能平台和产品层,用户只需要简单地提供其数据,并且通过配置或者用户界面列出或选择模型。
我们不仅可以训练和服务模型,而且还可以通过REST API暴露给应用程序。
Got-It AI开发的无代码、自我发掘、自我训练以及自我管理的平台,就在朝着大众化对话式人工智能的方向发展。微软前不久推出的一款名叫“Lobe”的应用程序,可以让所有人都能训练人工智能模型,其也是在朝着大众化对话式人工智能的方向发展。
人工智能促进可持续发展:我们正在经历一个大流行病(包括非典病毒、H1N1病毒和新冠病毒)变得更加普遍的阶段,气候变化也造成了大量森林火灾和物种灭绝,洪水和干旱等问题也变得越来越普遍。
我们将看到,越来越多的初创企业,以及由大公司或组织资助的计划,它们利用人工智能来实现可持续发展。我们已经看到了一些绿色科技初创公司,比如斯洛伐克的可再生能源公司Fuergy和加拿大乘车共享平台Facedrive,我们还可能会看到,人工智能初创公司利用预测模型来应对气候变化、大流行的预测和缓解,以及城市交通问题等等。
蒙特利尔人工智能伦理研究所(MAIEI)
创始人兼首席研究员、
微软公司机器学习工程师兼
创新技术合作事业部(CSE)
首席人工智能委员会成员
Abhishek Gupta
我的预测(以及我真诚的希望)是,伦理、安全以及包容会成为在人工智能领域工作的每一个人日常工作中遵循的原则。更重要的是,我预测一些像差别隐私这样的概念将更加主流,并且会很好地融入到日常实践中。
随着新的组织开始意识到利用人工智能完成工作的价值,我还预测,在应用人工智能的传统领域之外的地方,也将开始出现大量的能力建设工作。
随着人工智能工具变得更加易于使用,公民数据科学家的概念会获得更多的关注,人工智能技术也将会作为一种新颖的方式,用于解决那些对人类社会具有重要意义的问题。
最后,像信息污染这样的问题将会加剧,我相信这会开创一个知识建设的时代,各组织和团体会努力提高人们的认识,使大众具备更好地驾驭环境的技能。
首席研究科学家
Shalini Ghosh
随着人们开始在家庭和工作环境中接触越来越多的人工智能设备,这些设备能帮助用户完成的任务数量也将会进一步增长。比如说,智能助手可以帮助用户完成租借电影或者线上订餐这样的任务,智能监控可以通过异常事件检测来保障居家安全。
许多任务都将是多模态的,并涉及到视频、音频、语音和文本数据的处理和分析。
因此,在2021年,人们将继续保持对多模态人工智能的兴趣,就像我们在2020年已经看见的那样。
除此之外,许多高级任务的带标签训练数据十分匮乏,这会促使人们进一步研究稀疏数据环境中的学习技术,比如,小样本学习和自我监督学习。
最后,由于许多人工智能任务会在用户设备上运行,我们将看到更多对设备内置机器学习(以及更广范围的资源受限的机器学习)感兴趣的研究。
许可式邮件营销服务商Mailchimp
数据科学家
Muhammed Ahmed
更多地使用零样本标注!近年来,我们已经彻底研究了大量预先训练的自然语言处理(NLP)模型的益处。许多最近的研究都喜欢把零样本(ZS)学习器当作开箱即用的分类器来使用。
在2021年,我预计能看到更多的人使用零样本学习来标注数据集,并且训练出开箱即用的分类器。相比于零样本分类,零样本标注的优点包括:
·免费标注:不需要昂贵的标注器(比如Amazon mechanical turk)就可以管理数据集
· 标注引导:将一个开放式的标注任务转变为一个简单的真/假标注
· 隐私保护标注:在标注敏感数据时十分有用(比如医疗保健和遗传数据)
· 通过多个来源获取零样本标记示例,并随之引发的训练集样例多样性
· 未来待开发的训练新分类器的能力
· 推理速度加快(在某些诸如多类,零样本, 以及自然语言推断(NLI)的情景下)
全栈数据科学家的增长
对于许多机器学习任务来说,未来的工程和建模都不再是难事。这主要是因为机器学习领域在过去几年来取得的巨大进步。
对于自然语言理解和生成而言,我们知道使用transformer。对于计算机视觉而言,我们知道使用CNN。对于列表类型数据来说,我们知道使用树方法,这些树方法往往会使用bagging或者boosting等算法。这节省了很多过去花费在让我们能够解决并实验出能够快速训练最顶尖模型的时间。
对于许多数据科学团队来说,新的痛点是部署模型并编写生产就绪代码,这要求开发者拥有软件工程和MLOps技能。
在2021年,我预计对机器学习工程师和全栈数据科学家的需求会更大。
数据管理平台益博睿(Aperture Data)
创始人兼首席执行官
Vishakha Gupta
随着机器学习和数据科学领域的日渐成熟,机器学习行业正在从提高模型在特定数据集上的性能和准确率,发展到解决MLOps挑战。
随着当前机器学习工具和平台将细节抽象出来,我相信未来的重点会更多地放在减少复杂度、提高生产率和在实时公司数据上演示成果(在一定的延迟和空间占用下)等方面,而不是证明可行性。
通过机器学习从数据中获得商业价值包含多个步骤,这个过程目前仍然需要用多个孤立的解决方案来解决。当这些解决方案集成时,系统效率就会降低。
假设这些不同步骤的每一步都和数据进行交互,并且提供一种统一而有效的方式来和数据进行交互,那么,无论是哪个阶段,都可以降低机器学习管道在扩展时的复杂性。
我的研究主要集中在智能数据管理领域。我预测,在2021年,我们会越来越重视基础设施,它们能够在边缘设备和云端实现更简单、更可扩展的机器学习部署,并且把解决方案的时间,以及在真实世界数据上安全运行大量训练和验证任务的能力作为主要指标。与此同时,能源效率则将作为一个次要指标,不过它会变得越来越重要。
2021年中,另一个值得重视的领域是,验证模型在更具有代表性的数据集上工作情况的工具。一些研究小组已经确定了模型在现实世界中的图像捕获上是如何受影响的、文本数据如何令人困扰,以及训练集数据本身又是如何不具有代表性的。
我相信,接下来将会出现更多标准化指标和中立的第三方验证工具或者服务来评测模型的准确率。这些工具或者服务最终会将解决方案的操作指标和性能指标纳入其中,从而给出一个整体得分表。
加拿大科技健康公司WinterLight Labs
机器学习负责人
Jekaterina Novikova
2020年对很多人来说都是特殊的一年,并且也没有太多正能量。由于新冠疫情的暴发、健康风险增加、全球范围内前所未有的流动性和旅游限制,以及因新冠疫情所导致的其他种种后果,我们的日常生活发生了很大改变。
我认为这样的背景加速了人工智能在几个领域的应用,并将在2021年形成一些主要转变。
首先,人工智能解决方案将更广泛地应用在健康医疗领域,特别是在心理健康领域。受抑郁、焦虑和压力等问题困扰的人数急剧上涨,基于人工智能的工具和解决方案刚好可以并且能够应对这一危机。
其次,在新冠疫情迟迟得不到完全控制的情况下,由于各种追踪应用程序的应用,以及类似的基于人工智能的解决方案的出现,个人隐私问题也显得尤为突出。
很显然,这些产品非常有用,并且能够帮助实施必要的社会控制、预测疫情暴发和追踪感染。不过,由于人工智能引发的潜在、负面的隐私影响,将在2021年成为一个严重的问题。
教育科技创企SureStart
创始人兼首席执行官
Taniya Mishra
我们将看到更多的人工智能产品关注人和整个社会。在包括人工智能和技术在内的所有商业领域,多元、平等以及包容(Diversity, Equality & Inclusion,DEI)的问题被再次唤醒,这是一个不会消失的新兴趋势。
具体而言,忽略了DEI这三方面的人工智能公司会承担影响其底线的商业风险。如果人工智能不能为其所有的目标市场或者用户服务,那这些公司实际上就没有让其工作价值实现最大化。
已经有许多公司通过数据和算法偏差的技术评估,来关注和解决人工智能多元和伦理的问题,这也是非常重要的。然而,如果要真正解决这一问题,并且考虑到有关种族公平和正义的话题,我相信,我们会将更多的关注放在人、社会和构建人工智能的团队身上。
我们都见过,自上而下的DEI计划经常失败,这通常是因为个体员工不理解怎样在日常决策中实例化,或者说,他们没有跟这些决策建立情感联系。
所以,在2021年,我们会看到人工智能公司采取自下而上的DEI方法,拓展公司员工,特别是技术人员的视野,从而让他们进一步了解“谁”是工程师,“谁”是科学家,以及“谁”是技术专家。
此外,人工智能也不再是一门单纯的技术学科,我们需要用多学科的方法来理解其对人类的影响。对此已经展开深入思考的公司,将开始搭建专门的团队,团队成员不仅仅包括技术人才,而且还包括经过专业训练的伦理学家、社会学家和人类学家,他们往往能够站在超越产品技术和规格角度上,来思考技术所产生的影响。
人工智能产业使用数据的方法将不得不改变,这样才能恢复对科学和技术的信心。许多年来,许多公司都在争先恐后地发展成为创新驱动型企业(innovation driven enterprises, IDE)。但如今,大家的全新关注点,已经变成了发展成为数据驱动型企业(data driven enterprises, DDE)。
对于人工智能公司而言,DDE显得尤为重要。毕竟,人工智能系统需要大量数据来训练、测试以及验证算法。
然而,当收集、存储和使用这些数据,或者利用这些数据建立遵守伦理的人工智能时,大量的数据也带来了大量的责任。
由于越来越多的消费者希望参与到他们的数据如何使用以及由谁使用的决策之中,因此,市场也会受到这些伦理挑战的驱动。个人数据的访问控制权将掌握在用户手中,而不是技术开发人员或者科技企业的所有者手中。
人工智能公司需要牢记这一点,并想办法让数据收集、存储和使用更加透明;同时,也需要注意如何使用这些数据,以确保人工智能系统的公平与公正。
这就要求人工智能公司在测试和验证算法时建立约束条件,不仅要检查整体准确率,还需要特别地检查它在不同人口群体中(比如白人男性与黑人女性)的泛化程度。只有这样,组织才能在人工智能部署到产品中之前,识别出特殊的偏差领域,并解决这一问题。
深度学习创企DeepCube
联合创始人兼首席技术官
Dr. Eli David
我们看到一个明显的趋势,就是顶尖的深度学习模型正在变得越来越大。
在2019年,最大的深度学习模型有大约10亿个参数(权重)。到了2020年,最大的深度学习模型已经超过了1000亿个参数,一年就增长了超过100倍!
这些更大的模型,由于提高了准确率,因此也更有优势。但是,其计算和内存需求也在以同样的速率增长。因此,能够显著减小这些模型大小、并提高其速率的解决方案,将会在部署上变得越来越重要。