3月27日凌晨,阿里巴巴發布并開源首個端到端全模態大模型通義千問Qwen2.5-Omni-7B,可同時處理文本、圖像、音頻和視頻等多種輸入,并實時生成文本與自然語音合成輸出。
據介紹,在權威的多模態融合任務OmniBench等測評中,Qwen2.5-Omni刷新業界紀錄,全維度遠超Google的Gemini-1.5-Pro等同類模型。Qwen2.5-Omni以接近人類的多感官方式「立體」認知世界并與之實時交互,還能通過音視頻識別情緒,在復雜任務中進行更智能、更自然的反饋與決策。
現在,開發者和企業可免費下載商用Qwen2.5-Omni,手機等終端智能硬件也可輕松部署運行。
據了解,Qwen2.5-Omni采用了通義團隊全新首創的Thinker-Talker雙核架構、Position Embedding (位置嵌入)融合音視頻技術、位置編碼算法TMRoPE(Time-aligned Multimodal RoPE)。雙核架構Thinker-Talker讓Qwen2.5-Omni擁有了人類的“大腦”和“發聲器”,形成了端到端的統一模型架構,實現了實時語義理解與語音生成的高效協同。
具體而言,Qwen2.5-Omni支持文本、圖像、音頻和視頻等多種輸入形式,可同時感知所有模態輸入,并以流式處理方式實時生成文本與自然語音響應。
Qwen2.5-Omni在一系列同等規模的單模態模型權威基準測試中,其在語音理解、圖片理解、視頻理解、語音生成等領域的測評分數,均領先于專門的Audio或VL模型,且語音生成測評分數(4.51)達到了與人類持平的能力。
相較于動輒數千億參數的閉源大模型,Qwen2.5-Omni以7B的小尺寸讓全模態大模型在產業上的廣泛應用成為可能。即便在手機上,也能輕松部署和應用Qwen2.5-Omni模型。當前,Qwen2.5-Omni已在魔搭社區和Hugging Face 同步開源,用戶也可在Qwen Chat上直接體驗。
資料顯示,從2023年起,阿里通義團隊就陸續開發了覆蓋0.5B、1.5B、3B、7B、14B、32B、72B、110B等參數的200多款「全尺寸」大模型,囊括文本生成模型、視覺理解/生成模型、語音理解/生成模型、文生圖及視頻模型等「全模態」,真正實現了讓普通用戶和企業都用得上、用得起AI大模型。截至目前,海內外AI開源社區中千問Qwen的衍生模型數量突破10萬。(定西)