快科技9月24日消息,在今日2025雲棲大會上,阿里通義大模型迎來7連發,阿里雲智能首席技術官周靖人發布了多項重磅技術更新。
通義大模型在模型智能水平、Agent工具調用和Coding能力、深度推理、多模態等方面實現多項突破。
截至目前,通義大模型已成為全球第一開源模型,也是中國企業選擇最多的模型。
當前,阿里通義開源了300餘個模型,覆蓋不同大小的「全尺寸」及LLM、編程、圖像、語音、視頻等「全模態」,全球下載量突破6億次,全球衍生模型17萬個,穩居全球第一。
超100萬家客戶接入通義大模型,權威調研機構沙利文2025上半年報告顯示,在中國企業級大模型調用市場中,阿里通義占比第一。
在大語言模型中,阿里通義旗艦模型Qwen3-Max全新亮相,性能超過GPT5、Claude Opus 4等,躋身全球前三。
Qwen3-Max包括指令(Instruct)和推理(Thinking)兩大版本,其預覽版已在Chatbot Arena排行榜上位列第三,正式版性能可望再度實現突破。
Qwen3-Max是通義千問家族中最大、最強的基礎模型,預訓練數據量達36T tokens,總參數超過萬億,擁有極強的Coding編程能力和Agent工具調用能力。
下一代基礎模型架構Qwen3-Next及系列模型也正式發布,模型總參數80B僅激活3B,性能即可媲美千問3旗艦版235B模型,實現模型計算效率的重大突破。
而在專項模型方面,千問編程模型Qwen3-Coder迎來重磅升級。
新的Qwen3-Coder與Qwen Code、Claude Code系統聯合訓練,應用效果顯著提升,推理速度更快,代碼安全性也顯著提升。
其開源後調用量曾在知名API調用平台OpenRouter上激增1474%,位列全球第二。
在多模態模型中,視覺理解模型Qwen3-VL重磅開源,在視覺感知和多模態推理方面實現重大突破,在32項核心能力測評中超過Gemini-2.5-Pro和GPT-5。
Qwen3-VL擁有極強的視覺智能體和視覺Coding能力,不僅能看懂圖片,還能像人一樣操作手機和電腦,自動完成許多日常任務。
而全模態模型Qwen3-Omni也驚喜亮相,音視頻能力狂攬32項開源最佳性能SOTA,可像人類一樣聽說寫,應用場景廣泛,未來可部署於車載、智能眼鏡和手機等。
同時,用戶還可設定個性化角色、調整對話風格,打造專屬的個人IP。
而在視覺基礎模型中,通義萬相推出Wan2.5-preview系列模型,涵蓋文生視頻、圖生視頻、文生圖和圖像編輯四大模型。
通義萬相2.5視頻生成模型能生成和畫面匹配的人聲、音效和音樂BGM,首次實現音畫同步的視頻生成能力,進一步降低電影級視頻創作的門檻。
視頻生成時長從5秒提升至10秒,支持24幀每秒的1080P高清視頻生成,並進一步提升模型指令遵循能力。
最後,通義大模型家族還迎來了全新的成員——語音大模型通義百聆,包括語音識別大模型Fun-ASR、語音合成大模型Fun-CosyVoice。
Fun-ASR基於數千萬小時真實語音數據訓練而成,具備強大的上下文理解能力與行業適應性。
Fun-CosyVoice可提供上百種預製音色,可以用於客服、銷售、直播電商、消費電子、有聲書、兒童娛樂等場景。