今年 3 月底,OpenAI 宣布計(jì)劃在今年某個(gè)時(shí)候發(fā)布自 GPT-2 以來的首個(gè)“開源”語言模型,目前該模型的細(xì)節(jié)正逐漸浮出水面。
據(jù) TechCrunch 報(bào)道,消息人士透露,OpenAI 研究副總裁 Aidan Clark 正在領(lǐng)導(dǎo)這一開源模型的開發(fā)工作,該模型目前仍處于早期階段。公司計(jì)劃在今夏初發(fā)布該模型,并希望其在推理能力上超越其他同類開源推理模型。該模型將采用高度寬松的許可協(xié)議,幾乎不設(shè)使用或商業(yè)化的限制。此前,像 Llama 和谷歌的 Gemma 等開源模型因限制過多而受到社區(qū)批評(píng),OpenAI 此舉顯然是為了避開這些爭議。
近年來,OpenAI 面臨著來自競爭對(duì)手的巨大壓力。例如,中國的 DeepSeek 采用開源策略推出模型,取得了顯著成功。與 OpenAI 的策略不同,這些“開源”競爭對(duì)手將模型提供給 AI 社區(qū)進(jìn)行實(shí)驗(yàn),甚至在某些情況下允許商業(yè)化使用。這種策略已被證明極為成功,例如,Meta 在其 Llama 系列開源 AI 模型上投入巨大,今年 3 月宣布 Llama 的下載量已超過 10 億次。與此同時(shí),DeepSeek 也迅速積累了大量全球用戶,并吸引了國內(nèi)投資者的關(guān)注。
據(jù)消息人士透露,OpenAI 的開源模型將采用“輸入文本,輸出文本”的模式,并可能允許開發(fā)者像最近由 Anthropic 等公司發(fā)布的推理模型一樣,自由開啟或關(guān)閉其“推理”功能。雖然推理功能可以提高準(zhǔn)確性,但會(huì)增加延遲。如果此次發(fā)布反響良好,OpenAI 可能會(huì)繼續(xù)推出更多模型,包括更小型的模型。
IT之家注意到,此前 OpenAI 首席執(zhí)行官 Sam Altman 在公開場合表示,他認(rèn)為 OpenAI 在開源技術(shù)方面“站在了歷史的錯(cuò)誤一邊”。他在今年 1 月的 Reddit 問答中表示:“我個(gè)人認(rèn)為我們需要制定不同的開源策略。并非 OpenAI 的每個(gè)人都認(rèn)同這一觀點(diǎn),這也不是我們當(dāng)前的首要任務(wù)…… 我們將繼續(xù)推出更好的模型,但與過去相比,我們的領(lǐng)先優(yōu)勢可能會(huì)縮小。”
Altman 還表示,OpenAI 即將發(fā)布的開源模型將經(jīng)過嚴(yán)格的“紅隊(duì)測試”和安全評(píng)估。消息人士稱,公司計(jì)劃為該模型發(fā)布一份模型卡,即一份詳細(xì)的技術(shù)報(bào)告,展示 OpenAI 內(nèi)部和外部的基準(zhǔn)測試及安全測試結(jié)果。Altman 在上個(gè)月的 X 網(wǎng)站帖子中表示:“在發(fā)布之前,我們將根據(jù)我們的準(zhǔn)備框架評(píng)估這一模型,就像對(duì)待其他任何模型一樣。鑒于我們知道該模型在發(fā)布后可能會(huì)被修改,我們還將進(jìn)行額外的工作。”
然而,OpenAI 也因匆忙對(duì)近期模型進(jìn)行安全測試,且未公布其他模型的模型卡,而引發(fā)了一些 AI 倫理學(xué)家的批評(píng)。此外,Altman 還被指控在 2023 年 11 月短暫被解職之前,誤導(dǎo)了 OpenAI 高管關(guān)于模型安全審查的情況。