3月6日消息,阿里Qwen團隊正式發布他們最新的研究成果——QwQ-32B大語言模型。
這是一款擁有320億參數的模型,其性能可與具備6710億參數(其中370億被激活)的DeepSeek-R1媲美。
QwQ-32B在僅有DeepSeek-R1約1/21參數量的情況下,用強化學習實現了性能上的跨越。
此外,阿里還在推理模型中集成了與Agent相關的能力,使其能夠在使用工具的同時進行批判性思考,并根據環境反饋調整推理過程。
QwQ-32B 在一系列基準測試中進行了評估,測試了數學推理、編程能力和通用能力。
其中,在測試數學能力的AIME24評測集上,以及評估代碼能力的LiveCodeBench中,千問QwQ-32B表現與DeepSeek-R1相當,遠勝于o1-mini及相同尺寸的R1 蒸餾模型。
同時,在由Meta首席科學家楊立昆領銜的“最難LLMs評測榜”LiveBench、谷歌等提出的指令遵循能力IFEval評測集、由加州大學伯克利分校等提出的評估準確調用函數或工具方面的BFCL測試中,千問QwQ-32B的得分均超越了DeepSeek- R1。
目前,QwQ-32B已在Hugging Face和ModelScope開源,大家也可通過Qwen Chat直接進行體驗!
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。