近年來,大型語言模型和聊天機器人激發了人們對人工智能(AI)革命的希望,但全球治理的就緒程度卻遠遠滯后于技術發展的步伐。
2025年2月,法國將在巴黎舉辦人工智能行動峰會,探討如何明確新的全球AI治理框架。該峰會特使布夫羅(Anne Bouverot)接受第一財經記者專訪時表示:“當前全球AI治理面臨兩大挑戰,一是發展碎片化,二是機會不均等。”
作為全球科技領域的專家,布夫羅在推動數字技術治理與國際合作方面擁有豐富經驗。她曾在法國Orange電信公司工作多年,后曾擔任全球移動通信系統協會(GSMA)首席執行官。2024年,法國總統馬克龍任命她為2025年2月舉行的AI行動峰會特使。
布夫羅強調,此次峰會的特別之處在于,將聚焦AI在就業、文化、教育和氣候等領域引發的深刻變革,最終落腳在“具體行動”上。既要防范潛在風險,更要確保AI的發展潛力能夠惠及更廣泛人群。
布夫羅稱,這一多邊合作的進程與氣候治理領域的《巴黎協定》有一定相似之處。她透露,此次峰會期間,參與的各國領導人將聚焦人工智能的包容性與可持續發展,最終共同發表聯合聲明。
“許多國際倡議都成功推動構建了更包容、可持續的全球框架。這次峰會的目標正是要引導人工智能朝著更加普惠的方向發展,同時有效應對關鍵挑戰。”她說。
AI發展的現實困境
布夫羅提出,從國際層面上看,當前的人工智能生態系統相對碎片化。公共機構和研究中心在某種程度上落后于私營部門。此外,不同地區的法律和監管框架也存在差異。這些因素阻礙了我們實現或最大化集體利益。
根據世界經濟論壇的數據,2023年,私營部門共發布了51個機器學習模型,學術界僅發布了15個。這部分是因為運行或訓練大語言模型并不便宜,例如,OpenAI的GPT-4訓練成本預計為7800萬美元,而谷歌的Gemini Ultra則耗資1.91億美元。
在監管方面,斯坦佛大學的監測顯示,從2021至2023年,歐盟通過的人工智能相關法規數量有100條之多,而美國僅在50條左右。歐盟的監管也更成體系,其《人工智能法案》對某些被禁止的AI實踐和高風險AI應用設定了嚴格的規定,并對違規行為設定了高額罰款。美國仍缺乏統一的聯邦AI立法,更多依賴各州自行制定相關法律。中國則采取了縱向立法的方式,針對特定行業和技術發布法規和技術標準。
“同時,人工智能的發展集中在少數幾個地區,而那些最脆弱、最缺乏數字發展條件的人群,可能會被進一步排除在人工智能發展的浪潮之外,F存的南北差距可能因人工智能的發展而進一步擴大。”她稱。
根據牛津洞察(Oxford Insight)發布的《政府人工智能就緒度指數》,高收入國家在“技術領域”的得分遠高于其他收入組別的國家,一些情況下,高收入國家和中高收入國家之間的差距甚至大于所有其他收入組別之間的差距總和。
當前的AI競爭格局也反映了這種不平衡。布夫羅承認:“美國和中國在人工智能領域處于領先地位。但除此之外也有許多重要的參與者,尤其是歐洲國家,特別是法國。比如,法國Mistral AI表現非常出色,其大語言模型在基準測試中的表現堪比OpenAI、Meta或谷歌的系統。同時,這些模型還注重提高效率,從而更加環保!
但僅有少數國家的進步是遠遠不夠的,布夫羅強調,應該有更多國家能夠發展自己的人工智能生態系統,包括全球南方國家,而這正是即將召開的人工智能行動峰會的重要使命之一。
在環境方面,她表示,人工智能可以通過優化資源消耗來幫助減緩氣候變化和適應氣候挑戰,同時支持諸如極端天氣事件的預警系統等工作。但另外,人工智能的發展也在消耗越來越多的能源、水和稀缺資源,目前并未走上一條可持續的軌道。
她舉例說:“在美國,有些核設施將因人工智能發展的用電需求而重新啟用。在法國,我們是一個擁有大量核能的能源出口國,是脫碳的。”
布夫羅認為,各國可以根據自己的能源結構來決定如何應對這一挑戰,但從全球角度看,需要全面評估人工智能的能源消耗和碳足跡之間的平衡問題。“此次峰會將從多個角度探討這些問題。一是科學視角,我們希望對人工智能的發展路徑達成科學共識;另一方面,我們還計劃激勵投資,推動更可持續、更低碳、更合理的人工智能發展方式?沙掷m性和氣候問題是一項共同責任,需要大家齊心協力采取行動。”
構建全球AI治理新框架
布夫羅表示,法國在推動多邊對話和多方利益相關者參與全球治理方面有豐富經驗。此次峰會也并非“從零開始”,而是建立在2023年11月的首屆人工智能安全峰會英國布萊切利公園峰會和2024年5月在首爾舉行的第二屆全球人工智能安全峰會的基礎之上。
她認為,匯聚私營企業、學術界、政府和社會各界的智慧,對推進全球AI治理討論具有重要價值。為了應對發展碎片化和機會不均等問題,峰會將設計確保各方平等發聲,實現全生態系統的合作。同時,峰會也將全面借鑒聯合國框架下的重要倡議,特別是作為人工智能治理重要里程碑的《全球數字契約》。
聯合國系統2024年白皮書《人工智能治理》提出,鼓勵各國通過多邊機制共同制定AI治理框架,確保技術的使用符合國際法和人權標準。該白皮書倡導制定全球統一的AI技術和倫理標準,特別是在高風險領域(如自動駕駛、醫療AI和自動武器)加強監管。在治理過程中,則建議吸納政府、私營部門、學術界和公民社會的廣泛參與,以保證政策的多樣性和可執行性。
布夫羅介紹,為了構建可信任的AI治理框架,峰會創新性地采用了“三S方法”,即科學(Science)、解決方案(Solutions)和標準(Standards)。
在科學方面,峰會將以科學共識為基石。2月6日至7日的“科學日”將發布由首屆人工智能安全峰會委托的《人工智能安全報告》。在解決方案方面,峰會著眼于在科學、文化、醫療健康和工業等實際場景提供具體可操作的應用方案,力求超越抽象的理論探討,落實到實踐工具層面。在標準方面,峰會將致力于推動統一標準的建立,這不僅有助于各方協調行動,也為衡量和管理AI的環境影響提供重要依據。