📢 Gate廣場獨家活動: #PUBLIC创作大赛# 正式開啓!
參與 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),並在 Gate廣場發布你的原創內容,即有機會瓜分 4,000 枚 $PUBLIC 獎勵池!
🎨 活動時間
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 參與方式
在 Gate廣場發布與 PublicAI (PUBLIC) 或當前 Launchpool 活動相關的原創內容
內容需不少於 100 字(可爲分析、教程、創意圖文、測評等)
添加話題: #PUBLIC创作大赛#
帖子需附帶 Launchpool 參與截圖(如質押記錄、領取頁面等)
🏆 獎勵設置(總計 4,000 枚 $PUBLIC)
🥇 一等獎(1名):1,500 $PUBLIC
🥈 二等獎(3名):每人 500 $PUBLIC
🥉 三等獎(5名):每人 200 $PUBLIC
📋 評選標準
內容質量(相關性、清晰度、創意性)
互動熱度(點讚、評論)
含有 Launchpool 參與截圖的帖子將優先考慮
📄 注意事項
所有內容須爲原創,嚴禁抄襲或虛假互動
獲獎用戶需完成 Gate廣場實名認證
Gate 保留本次活動的最終解釋權
騰訊混元再推開源 AI 大招!Hunyuan-A13B 模型亮相,13B 參數挑戰 80B 巨獸
隨著生成式 AI 進入新階段,超大模型雖然強悍,卻也伴隨著高昂的資源成本與部署難度。騰訊混元最新釋出的開源大型語言模型 Hunyuan-A13B,則走出了一條輕量級、高效能的新路線:雖然擁有總計 800 億參數,但每次推理僅啟用 130 億參數,透過「Mixture-of-Experts(MoE)」架構,大幅壓縮推理成本,卻又不犧牲語言理解與推理能力。
打破效能與資源瓶頸:Hunyuan-A13B 的技術底層解析
Hunyuan-A13B 採用稀疏 MoE 架構,共擁有 64 個專家模塊與一個共享專家,每次推理時僅選用其中 8 個專家活化,搭配 SwiGLU 激活函數與 GQA(Grouped Query Attention)技術,能有效提升記憶體使用效率與推理吞吐量。
此外,其預訓練資料量高達 20 兆 tokens,當中包含 2500 億來自 STEM 領域的高品質資料,強化模型在數學、科學與邏輯推理上的表現。整體訓練歷經三大階段:基礎預訓練、快速退火訓練與長上下文擴展訓練,最終支援長達 256K tokens 的上下文處理能力。
推理兩種模式任選:快速 vs. 深度思考自由切換
Hunyuan-A13B 特別引入雙模式推理機制(Dual-mode Chain-of-Thought),根據任務複雜度自動切換「快思」與「慢思」模式。快思適用於日常簡單查詢,強調低延遲與高效率;慢思則會啟動更長的 Chain-of-Thought 推理路徑,處理多步邏輯與複雜推演問題,平衡準確性與資源使用。
評測成績亮眼
在多項公認基準測試中,Hunyuan-A13B 的表現相當出色。它在數學推理(如 AIME 2024、MATH)中勇奪榜首,在邏輯推理(如 BBH、ZebraLogic)也名列前茅。即便在較考驗模型深度的長文本測試如 LongBench-v2 和 RULER 中,Hunyuan-A13B 也展現了驚人的上下文保留與邏輯整合能力,擊敗了參數遠大於它的 Qwen3-A22B 與 DeepSeek-R1。
面對開放環境挑戰,工具調用能力全面升級
除了語言與推理能力外,Hunyuan-A13B 也大幅提升了 Agent 能力。在 BFCL v3、ComplexFuncBench 等針對工具調用、規劃與多輪對話的測試中,它的表現不僅優於 Qwen3-A22B,更在 C3-Bench 測試中名列第一,展現其適應複雜任務流程的強大實力。
推理吞吐量爆表,部署效率值得關注
根據報告實測,Hunyuan-A13B 在推理效率上也同樣驚艷。搭配現有推理框架如 vLLM、TensorRT-LLM 等,在 32 批次、14K tokens 輸出長度下,可達近 2000 tokens/s 的吞吐量。在使用 INT8、FP8 等量化精度情況下,亦能保持效能,對於企業部署至關重要。
高效能與高性價比兼得,開源模型迎來新選擇
騰訊透過 Hunyuan-A13B 為開源語言模型界樹立新典範。該模型不僅突破了「小模型難敵大模型」的刻板印象,更提供彈性推理與多任務適應能力,成為開源 LLM 領域的新旗艦。對於資源有限但仍追求高效 AI 解決方案的開發者與企業來說,Hunyuan-A13B 無疑是一個值得關注的強力新選擇。
這篇文章 騰訊混元再推開源 AI 大招!Hunyuan-A13B 模型亮相,13B 參數挑戰 80B 巨獸 最早出現於 鏈新聞 ABMedia。