苹果OpenELM开源自然语言模型提供不同的参数规模选项,现已通过Hugging Face平台提供下载。
在谷歌、微软、Meta等业者接连推出多款对应人工智能应用的大型自然语言模型,同时也推出可在终端装置离线运作的自然语言模型之后,苹果稍早也宣布推出名为OpenELM的开源自然语言模型,同样标榜能在终端设备上运作。
OpenELM已经通过Hugging Face托管平台对外提供下载使用,并且包含4款已经预先完成训练,以及4款针对指令优化调整版本,分别对应2.7亿组、4.5亿组、11亿组与30亿组参数规模,相较市面多数以70亿组参数在终端装置运作的自然语言模型都还要小,因此能有更流畅执行效率表现。
而苹果目前以提供模型权重档、范常式式码形式授权,并且提供多个训练检查点、模型效能数据,以及相关操作指引,授权范围并未限制商用或进行修改。 另外,苹果更说明OpenELM训练数据来源包含在Reddit、维基百科、arXiv.org 等公开资料,并且通过约1.8兆个代币数据进行预先训练,但强调此模型并未加上任何安全保证,因此可能会有做出回应不准确、有害、带有偏见,或是令人反感内容。
苹果在去年公布针对其芯片产品打造的高效能机器学习框架MLX,后续也与美国哥伦比亚大学研究人员公布开源多模大型自然语言模型Ferret(雪貂),而此次公布的OpenELM则是以开源形式对外提供使用,同时也可能应用在自有产品,例如iPhone、Mac等。