文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

微软首次推出27亿参数的Phi-2模型,性能超过许多大型语言模型

2024-11-30 03:50

关注

微软在近日的一篇博文中宣布,Phi-2是一个拥有27亿参数的语言模型,与其他基础模型相比,它在复杂的基准测试中表现出了 "先进的性能",这些测试评估了推理、语言理解、数学、编码和常识能力。Phi-2现在通过微软Azure人工智能工作室的模型目录发布,这意味着研究人员和开发人员现在就可以将其集成到第三方应用程序中。

Phi-2由微软首席执行官Satya Nadella(如图)于11月在Ignite大会上首次发布,其强大的功能得益于该公司所称的“教科书质量”数据(专门针对知识),以及学习其他模型传递的洞见的技术。

Phi-2 的有趣之处在于,传统上,大型语言模型的能力总是与其总体规模密切相关,而总体规模是以参数来衡量的。参数越大的模型通常能力越强,但 Phi-2 的出现改变了这种状况。

微软表示,Phi-2在某些基准测试中显示出与更大型的基础模型相匹敌甚至超越它们的能力,包括Mistral AI 70亿参数的Mistral、Meta Platforms公司130亿参数的Llama 2,甚至在某些基准测试中超过了700亿参数的Llama-2。

最令人惊讶的说法可能是,它的性能甚至超过了谷歌的 Gemini Nano,后者是上周发布的 Gemini系列LLM中效率最高的一款。Gemini Nano 专为设备上的任务而设计,可以在智能手机上运行,实现文本摘要、高级校对、语法修正以及上下文智能回复等功能。

微软的研究人员说,Phi-2涉及的测试非常广泛,包括语言理解、推理、数学、编码挑战等。

该公司表示,Phi-2之所以能取得如此优异的成绩,是因为它是用精心挑选的教科书级数据训练而成,这些数据旨在教授推理、知识和常识,这意味着它可以从更少的信息中学到更多的东西。微软的研究人员还使用了一些技术,允许从更小的模型中获取知识。

研究人员表示,值得注意的是,Phi-2可以不使用基于人类反馈的强化学习或者教学性微调等技术就实现强劲的性能,这些技术通常用于改善人工智能模型行为。尽管没有使用这些技术,但是与其他使用了这些技术的开源模型相比,Phi-2在减少偏见和有毒内容方面依然表现卓越。该公司认为这是量身定制的数据整理的功劳。

Phi-2是微软研究人员所称的“小型语言模型(SLM)”系列的最新版本。该系列第一个模型是 Phi-1,于今年早些时候首次发布,拥有13亿参数,针对基本的Python编码任务进行了微调。今年9月,该公司又推出了拥有13亿参数的Phi-1.5,使用新的数据源进行训练,其中包括用自然语言编程生成的各种合成文本。

微软表示,Phi-2的高效性使其成为研究人员探索增强人工智能安全性、可解释性和语言模型道德发展等领域的理想平台。

来源:至顶网内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯