中國新聞網-上海新聞
上海分社正文
阿里云百煉上線Qwen2.5-Turbo模型,可支持100萬超長上下文
2024年11月20日 17:51   來源:中新網上海  

  11月20日消息,最新的Qwen2.5-Turbo已在阿里云百煉上線,該模型支持100萬超長上下文,相當于100萬個英文單詞或150萬個漢字,在多個長文本評測集上的性能表現(xiàn)超越GPT-4。即日起,所有用戶可在阿里云百煉調用Qwen2.5-Turbo API,百萬tokens僅需0.3元。

  全新的Qwen2.5-Turbo在1M長度的超長文本檢索(Passkey Retrieval)任務中的準確率可達到100%,在長文本評測集RULER上獲得93.1分,超越GPT-4;在LV-Eval、LongBench-Chat等更加接近真實場景的長文本任務中,Qwen2.5-Turbo在多數(shù)維度超越了GPT-4o-mini;此外,在MMU、LiveBench等短文本基準上Qwen2.5-Turbo的表現(xiàn)也非常優(yōu)秀,在大部分任務上的表現(xiàn)顯著超越之前上下文長度為1M tokens的開源模型。

Qwen2.5-Turbo在長文本、短文本任務評測集上均表現(xiàn)優(yōu)秀

  在推理速度方面,通義千問團隊利用稀疏注意力機制將注意力部分的計算量壓縮了約12.5倍,將處理1M tokens上下文時的首字返回時間從4.9分鐘降低到68秒,實現(xiàn)了4.3倍的速度提升。

Qwen2.5-Turbo推理速度可提升4.3倍

  Qwen2.5-Turbo可應用于長篇小說深入理解、倉庫級別代碼助手、多篇論文閱讀等場景,可一次性處理10本長篇小說,150小時的演講稿,3萬行代碼。針對該模型,阿里云百煉免費為用戶贈送1000萬tokens額度。

  該團隊表示,長文本任務處理依然存在諸多挑戰(zhàn),未來將進一步探索長序列人類偏好對齊,優(yōu)化推理效率以減少運算時間,并繼續(xù)研發(fā)更大、更強的長文本模型。

  據(jù)介紹,阿里云百煉已上線Qwen、Llama、Flux等超200款國內外主流開源和閉源大模型,用戶可選擇直接調用、訓練微調或打造RAG應用。目前,一汽、金山、哈啰集團、國家天文臺等超30萬企業(yè)和機構在使用阿里云百煉。(完/供圖)

注:請在轉載文章內容時務必注明出處!   

編輯:達利敏  

本網站所刊載信息,不代表中新社和中新網觀點。 刊用本網站稿件,務經書面授權。
未經授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任。
常年法律顧問:上海金茂律師事務所