两大可商用开源大模型同时发布,性能不输LLaMA,羊驼家族名字都不够用了
梦晨 发自 凹非寺
量子位 | 公众号
从Meta的发展出的羊驼家族一系列大模型,已成为开源AI重要力量。
但开源了又没全开,只能用于研究用途,还得填申请表格等,也一直被业界诟病。
好消息是,两大对标的完全开源项目同时有了新进展。
可商用开源大模型来了,还一下来了俩:
推出MPT系列模型,其中70亿参数版在性能测试中与打个平手。

的(红睡衣)系列模型,30亿参数版在游戏显卡上就能跑。

对于这些进展,特斯拉前AI主管 认为,开源大模型生态有了寒武纪大爆发的早期迹象。

MPT,与五五开
MPT系列模型,全称 ,基础版本为70亿参数。
MPT在大量数据(1T )上训练,与相当,高于,等其他开源模型。
支持84k 超长输入,并用和方法针对训练和推理速度做过优化。
在各类性能评估中,与原版不相上下。

除了MPT-7B Base基础模型外还有三个变体。
MPT-7B-,用于遵循简短指令。
MPT-7B-Chat,用于多轮聊天对话。
MPT-7B--65k+,用于阅读和编写故事,支持65k 的超长上下文,用小说数据集微调。
由前英特尔AI芯片项目负责人 Rao创办。

该公司致力于降低训练神经网络的成本,推出的文本和图像生成推理服务成本只有的1/15。

,2070就能跑
系列模型,在5TB的同名开源数据上训练而来(前面提到的MPT也是用此数据集训练)。
除70亿参数基础模型外,还有一个30亿参数版本,可以在5年前发售的游戏显卡上运行。
目前70亿版本完成了80%的训练,效果已经超过了同规模的等开源模型,略逊于。

预计在完成1T 的训练后还能继续改进。

背后公司,由苹果前高管 Ved ,斯坦福大模型研究中心主任 ,苏黎世联邦理工大学助理教授张策等人联合创办。
开源模型发布后,他们的近期目标是继续扩展开源数据集到两倍规模。

One More
来自南美洲的无峰驼类动物一共4种,已被各家大模型用完了。

Meta发布之后,斯坦福用了,伯克利等单位用了, 等开发者团队用了。
以至于后来者已经卷到了其他相近动物,比如IBM的单峰骆驼,的来自克隆羊多莉。
国人研究团队也热衷于用古代传说中的神兽,如UCSD联合中山大学等推出的白泽。

港中文等推出的凤凰……

最绝的是哈工大基于中文医学知识的微调模型,命名为华驼。

参考链接:
:///?s=20
— 完 —
科技前沿进展日日相见 ~
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。
