微软公布Orca 2小模型,推论能力不输大型LLM

on

|

views

and

comments

Hugging Face

微软本周公布Orca 2,号称为参数仅130亿的小模型,可经由模仿更大语言模型的推理方法,在测试中也显示推理能力不输给大它10倍的模型。

Orca 2是微软今年年中推出第一代Orca後,探索参数在100亿以下的小型语言模型的最新成果。目前微软已经在Hugging Face上开源70亿和130亿参数的Orca 2供研究或试用。

微软指出,LLM如GPT-4及PaLM等具有很强的推论能力,以便回答复杂问题,生成解释,或解决多步骤推论的任务。但较小模型往往欠缺这类能力,这也是微软Orca 2专案的目的;他们希望利用对LLM的知识来提升小模型的能力。

Orca 2的2个版本都是由Llama 2基础模型以大量合成资料客制训练而成。训练Orca 2的资料集是由更强大的教师模型(teacher model)生成。这些资料是教师模型在详细指令甚至多次询问後的回应结果。研究人员希望学生模型(Orca 2)学习这些回应的推论过程及策略。最後,教师模型教导Orca 2多项推理技巧,包括多步处理、回忆-推理-生成,撷取-生成,以及直接回答方法,也教它为不同任务选择不同解决策略。

在训练成後,研究人员利用15种标竿测试,包括近100种任务及超过3.6种不同零样本测试用例,来评估Orca 2。标竿测试涵盖语言理解、常识推理、多步骤推理、数学解题、阅读测验、摘录重点、贴近真实性,以及有毒内容的生成及辨识。

评估结果显示,Orca 2效能大幅超越同样大小的模型,包括第一代Orca,而在处理复杂推论的零样本环境测试中,表现和5到10倍大的大型语言模型(LLM)接近,甚至超过。

图片来源/微软

微软研究人员指出,Orca 2的成功关键在於使用多种推论策略,找出不同任务最适用的解决方案,以及使用高品质的合成资料作为後续训练(post-training)。虽然Orca 2承袭基础模型及其他模型共通的限制,不过Orca 2突显了小模型也能具备良好的推理能力,以及可控、可专化,也更具安全性。

openvpn好用吗

热门文章

意法半导体推出车载音讯D类放大器

意法半导体(STMicroelectronics, ST)新推出之HFA80A车规模拟输入D类音讯放大器兼具高...

Bureau Veritas协助研华成功取得IEC 62443认证

Bureau Veritas(必维国际检验集团)宣布,成功协助研华完成两项IEC 62443-4-2资安认证(...

辉达财报亮眼股价却走跌,陆行之:投资人 AI 毒瘾越来越大,担心拖累台积电

GPU 大厂辉达今日公布 2024 财年第三季财报,资料中心业绩创新高,带动公司整体营收达 351 亿美元,较上季成长 17%,较 2023 年同期成长 94%,且优於市场预期 331.6 亿美元。然预估第四季营收年增率较 2023 年同期 265% 放缓,造成辉达盘後股价下滑。前外资知名分析师陆行...

最新文章

相关推荐

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
最旧
最新 最多投票
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x