李开复回应大模型套壳LLaMA:受益于开源也贡献开源

11月16日消息,针对近日零一万物被质疑完全使用 LLaMA 架构,只对两个张量(Tensor)名称做修改,李开复在朋友圈进行了回应。

IT之家报道,李开复表示:“全球大模型架构一路从 GPT2 --> Gopher --> Chinchilla --> Llama2 --> Yi,行业逐渐形成大模型的通用标准,就像做一个手机 App 开发者,不会去自创 iOS、Android 以外的全新基础架构。01.AI 起步受益于开源,也贡献开源,从社区中虚心学习,我们会持续进步。”

创新工场董事长兼 CEO 李开复于 2023 年创办了 AI 大模型创业公司“零一万物”,该公司已推出 Yi-34B 和 Yi-6B 两个开源大模型,号称对学术研究完全开放,同步开放免费商用申请。

然而在 Yi-34B 的 Hugging Face 开源主页上,开发者 ehartford 质疑称该模型使用了 Meta LLaMA 的架构,只对两个张量(Tensor)名称进行了修改,分别为 input_layernorm 和 post_attention_layernorm。

零一万物开源团队总监 Richard Lin 回应称,这一命名问题是开发人员疏忽导致,开发人员在代码中进行了几次重命名,以满足实验要求。但是开发人员“忘记将张量名称修改回 LLaMA”,开发人员对此感到抱歉。

值得一提的是,原阿里首席 AI 科学家贾扬清吐槽国内某一新模型中用的其实是 LLaMA 架构,仅在代码中更改了几个变量名引发网络热议。在被指大模型回应并发布训练模型过程后,贾扬清最新发文,表示开源领域“魔改”要不得。

15日,零一万物官方对 Yi-34B 训练过程进行了说明,表示大模型持续发展与寻求突破口的核心点不仅在于架构,而是在于训练得到的参数。

热门相关:黜龙   这个大佬有点苟   至尊剑皇   国破山河在   苍穹龙骑