IT之家 4 月 18 日消息,IT之家從豆包大模型團隊獲悉,UI-TARS-1.5 昨日正式發布并開源。這是一款基于視覺-語言模型構建的開源多模態智能體,能夠在虛擬世界中高效執行各類任務。
有關的鏈接如下:
GitHub:https://github.com/bytedance/UI-TARSWebsite:https://seed-tars.com/Arxiv:https://arxiv.org/abs/2501.12326
UI-TARS-1.5 基于字節此前提出的原生智能體方案 UI-TARS,通過強化學習進一步增強了模型的高階推理能力,使模型能夠在“行動”前先進行“思考”。
該版本的模型中,團隊還展示了一個新的愿景:以游戲為載體來增強基礎模型的推理能力。與數學、編程等領域相比,游戲更多依賴直觀的、常識性的推理,并較少依賴專業知識,因此,游戲通常是評估和提升未來模型通用能力的理想測試場景。
據介紹,UI-TARS 是一個原生 GUI 智能體,具備真實操作電腦和手機系統的能力,同時,還可操控瀏覽器、完成復雜交互任務。UI-TARS-1.5 能夠實現精準 GUI 操作,基于團隊在四個維度的技術探索:
視覺感知增強:依托大規模界面截圖數據,模型可理解元素的語義與上下文,形成精準描述。System 2 推理機制:在動作前生成“思維(thought)”,支持復雜任務的多步規劃與決策。統一動作建模:構建跨平臺標準動作空間,通過真實軌跡學習提升動作可控性與執行精度。可自我演化的訓練范式:通過自動化的交互軌跡采集與反思式訓練,模型持續從錯誤中改進,適應復雜環境變化。