卡拉今天看了什麼<p>Llama 4問世反應平平,開發人員認效能表現言過其實 | iThome</p><blockquote><a href="https://www.ithome.com.tw/news/168318" rel="nofollow noopener noreferrer" target="_blank">Link</a></blockquote>📌<span> Summary: <br>Meta 公佈旗艦模型 Llama 4 家族,包含開源的 Maverick (4000 億參數) 和 Scout (1090 億參數) 兩款模型,均使用 170 億活躍參數的混合專家 (MoE) 架構。Meta 宣稱其效能優於 GPT-4o 和 Gemini 2.0,然而開發人員發現 Meta 在標竿測試中使用了經過優化的實驗版本而非開源版本,引發爭議。此外,實際測試也顯示 Llama 4 的表現未如宣傳所言,尤其是在長文本處理方面,遠未發揮 10M 字詞上下文的潛力。<br><br></span>🎯<span> Key Points: <br>1. Meta 推出 Llama 4 家族,採用混合專家 (MoE) 架構,開源兩款模型:4000 億參數的 Maverick 和 1090 億參數的 Scout。<br>2. Meta 宣稱在 LMArena 測試中 Llama 4 Maverick 排名第二,超越 GPT-4.5 preview 和多款 Gemini 模型。<br>3. 開發人員發現 Meta 在測試中使用「對話性優化過」的實驗版本,而非向公眾開放的版本,引發操弄爭議。<br>4. Scout 模型雖號稱擁有 10M 字詞的上下文長度,但在第三方平臺如 Groq 和 Fireworks 上受限於 128K 字詞。<br>5. 研究人員實測 Scout 處理長文本的能力不佳,產生重複跳針的內容,表現遠不如宣傳。<br>6. 有觀點認為 170 億活躍參數已顯不足,或 Meta 團隊對 MoE 架構尚未充分掌握就急於推出成果。<br><br></span>🔖<span> Keywords: <br></span><a href="https://social.mikala.one/tags/Llama4" rel="nofollow noopener noreferrer" target="_blank">#Llama4</a> <a href="https://social.mikala.one/tags/混合專家模型" rel="nofollow noopener noreferrer" target="_blank">#混合專家模型</a> <a href="https://social.mikala.one/tags/Meta" rel="nofollow noopener noreferrer" target="_blank">#Meta</a> <a href="https://social.mikala.one/tags/效能爭議" rel="nofollow noopener noreferrer" target="_blank">#效能爭議</a> <a href="https://social.mikala.one/tags/開源人工智慧" rel="nofollow noopener noreferrer" target="_blank">#開源人工智慧</a><p></p>