Meta深夜悄然发布开源Llama 4!首次采用MoE,支持千万Token上下文,永久免费!原生多模态、3大模型让AI竞赛再升级,竞技场超越DeepSeek

图片[1]-Meta深夜悄然发布开源Llama 4!首次采用MoE,支持千万Token上下文,永久免费!原生多模态、3大模型让AI竞赛再升级,竞技场超越DeepSeek

当地时间4月5日,Meta公司发布了最新的开源人工智能软件Llama 4家族的新成员,而且一出手就是三款模型,直接引爆AI圈—Llama 4 Scout、Llama 4 Maverick,还有一个还在路上的巨无霸:Llama 4 Behemoth。果然,AI界从来没有“周末”这个词,连硅谷周末也不休息!这也是该公司迄今为止最强大的两款AI大型语言模型(LLM)。

不过Meta表示,更强大的一款被命名为Llama 4 Behemoth的大模型仍在训练中,该模型将在Meta的混合专家模型(MoE)架构中充当“新模型的老师”。

图片[2]-Meta深夜悄然发布开源Llama 4!首次采用MoE,支持千万Token上下文,永久免费!原生多模态、3大模型让AI竞赛再升级,竞技场超越DeepSeek

在人工智能领域,随着技术的不断进步,越来越多的强大语言模型应运而生。Llama 4 作为 Meta 推出的最新一代大规模语言模型,凭借其卓越的性能和创新的架构设计,成为了当前 AI 领域的焦点之一。无论是处理自然语言理解、生成,还是在复杂任务中的推理能力,Llama 4 都展现了非凡的潜力。

这次发布的Llama 4,是Meta历史上首个基于MoE(混合专家)架构的模型系列,直接剑指开源最强!

🔹中杯Llama 4 Scout

  • 17B激活参数,16位专家模型
  • 支持100万上下文窗口!
  • 单个H100显卡即可运行
  • 同类SOTA,性能超越Gemma 3和Mistral 3.1

🔹大杯Llama 4 Maverick

  • 同样17B参数,但拥有128位专家
  • 性能干掉GPT-4o和Gemini 2.0 Flash!
  • 代码能力等于DeepSeek-V3,参数却只有一半
  • 单卡可跑,性价比爆表

🔹超大杯Llama 4 Behemoth(预告)

  • 2万亿参数,还在训练中
  • 是前面两个模型的“祖师爷”
  • 内测成绩超过GPT-4.5、Claude 3.7、Gemini 2.0 Pro

Llama 4 两大模型在线免费使用

1、Hugging face 提供

Llama-4-Maverick、Llama-4-Scout

注意:Hugging face 在线提供的免费试用版,暂不支持图片识别! 所以我们可以使用下方提供的平台

2、Together

注册会送免费使用额度,可以直接免费试用Llama 4最新的两大模型Llama-4-Scout 和Llama-4-Maverick ,支持图片识别,可以很好的测试最新的视觉模型性能!

图片[3]-Meta深夜悄然发布开源Llama 4!首次采用MoE,支持千万Token上下文,永久免费!原生多模态、3大模型让AI竞赛再升级,竞技场超越DeepSeek

Meta 表示,Llama 4 是其第一批使用混合专家 (MoE) 架构的模型,该架构在训练和回答查询方面具有更高的计算效率。MoE 架构基本上将数据处理任务分解为子任务,然后将其委托给较小的、专门的“专家”模型。

例如,Maverick 总共拥有 4000 亿个参数,但在 128 位“专家”中只有 170 亿个活跃参数。(参数大致对应于模型的解决问题的能力。)Scout 拥有 170 亿个活跃参数、16 位专家和 1090 亿个总参数。

根据 Meta 的内部测试,Maverick 在某些编码、推理、多语言、长上下文和图像基准上超过了 OpenAI 的GPT-4o和Google的Gemini 2.0等模型,该公司称 Maverick最适合创意写作等“一般助理和聊天”用例。然而,Maverick 还不如Google的Gemini 2.5 Pro、Anthropic 的Claude 3.7 Sonnet和 OpenAI 的GPT-4.5等功能更强大的近期模型。

Scout 的优势在于文档摘要和大型代码库推理等任务。它的独特之处在于拥有非常大的上下文窗口:1000 万个标记。(“标记”代表原始文本的片段 — 例如,“fantastic” 一词可拆分为“fan”、“tas”和“tic”。)用简单的英语来说,Scout 可以接收图像和多达数百万个单词,从而能够处理和处理非常长的文档。

据 Meta 称,Scout 可以在单个 NVIDIA H100 GPU 上运行,而 Maverick 则需要 NVIDIA H100 DGX 系统。

Meta 尚未发布的 Behemoth 将需要更强大的硬件。据该公司称,Behemoth 拥有 2880 亿个活跃参数、16 位专家和近 2 万亿个总参数。Meta 的内部基准测试显示,在多项衡量 STEM 技能(如数学问题解决能力)的评估中,Behemoth 的表现优于 GPT-4.5、Claude 3.7 Sonnet 和 Gemini 2.0 Pro(但不是 2.5 Pro)。

值得注意的是,Llama 4 模型中没有一个是像 OpenAI 的o1和o3-mini那样的真正的“推理”模型。推理模型会核实其答案,并且通常能更可靠地回答问题,但因此比传统的“非推理”模型需要更长的时间来给出答案。

有趣的是,Meta 表示,它对所有 Llama 4 型号进行了调整,使其不再频繁地拒绝回答“有争议”的问题。据该公司称,Llama 4 会回应“有争议的”政治和社会话题,而之前的 Llama 型号不会回应。此外,该公司表示,Llama 4 的“平衡性大大提高”,它根本不会接受这些提示。

Meta 发言人表示:“你可以依靠 Lllama 4 提供有用的、基于事实的回答,而不会做出任何评判。我们正在继续提高 Llama 的响应能力,以便它能够回答更多问题,能够回应各种不同的观点,并且不会偏袒某些观点。”

Meta深夜悄然发布开源Llama 4!首次采用MoE,支持千万Token上下文,永久免费!原生多模态、3大模型让AI竞赛再升级,竞技场超越DeepSeek
此内容为免费资源,请登录后查看
0积分
免费资源
已售 9
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享
评论 抢沙发

请登录后发表评论

    请登录后查看评论内容