北京时间4月6日凌晨,Meta发布人工智能新模型系列 Llama 4,包括Llama 4 Scout、Llama 4 Maverick 和 Llama 4 Behemoth。
Meta在声明中表示,Llama 4是一个多模态AI系统,能够处理和整合文本、视频、图像、音频等多种数据类型,并能在不同格式之间实现内容转换。所有这些模型都经过了 “大量未标注的文本、图像和视频数据” 的训练,以使它们具备 “广泛的视觉理解能力”。
据介绍,Scout和Maverick是该公司首款采用混合专家架构(MoE)的模型,两者均以开源形式发布。其中,Scout有170亿个活跃参数、16个“专家”模型、1090亿个总参数;Maverick也有170亿个活跃参数,但有128个“专家”模型,总参数量高达4000亿。
此外,Meta还预告了Llama 4 Behemoth,称其为“全球最聪明的语言模型之一,将作为未来模型训练的教师模型”。Llama 4 Behemoth 在多个 STEM 基准测试中的表现优于 GPT-4.5、Claude Sonnet 3.7 和 Gemini 2.0 Pro。
Meta表示,其人工智能助手Meta AI已在40个国家更新为使用Llama 4模型,但目前多模态功能仅在美国以英语提供。
在发布人工智能新模型系列 Llama 4时,Meta首席执行官扎克伯格指出,“我很久以前就说过,我认为开源人工智能将成为领先的模型,而随着Llama 4的推出,这一切已经开始发生。Meta AI今天得到了一次重大升级。”
据知情人士透露,Llama 3已经推出一年了,而Llama4之所以迟迟未能发布,是因为在开发过程中,该模型在技术基准上没有达到Meta的预期,尤其是在推理和数学任务方面。此外,Meta也担心其模型在模拟人类语音对话方面不如OpenAI的模型。
评论
文明上网理性发言,请遵守新闻评论服务协议
登录参与评论
0/1000