由于技術演進及其對經濟社會規則的沖擊很可能快于相應強監管能力的提升,僅靠政府力量難以有效行動,強監管可能一時跟不上,各種弱規則很可能是治理主力。
人工智能發展與治理的關系是一個全社會關注的問題,幾乎所有的學科都在研究,經濟學和公共管理學科也不例外。不過,當前經濟學科與公共管理學科在該領域研究特點不突出,聚集點與社會熱點相似,看不出學科特性的映射,也缺乏學科邏輯的合理支撐。我從經濟學視角探討三個問題。
1.何為AI發展方向的正當性:從講原則到講學理講實踐
長期以來,關于數智時代技術和經濟社會規則問題的討論,過多集中于道德層面、理念層面和意愿層面,例如有關人工智能發展規則與倫理問題的討論中,尊重人、服務于人、透明、責任、向善、包容等是主流表達。
2017年生命未來研究院(FLI)發布《阿西洛馬人工智能原則》:安全性、故障透明性、審判透明性、責任、價值觀一致、人類價值觀、個人隱私、自由與隱私、共享利益、共同繁榮、人類控制、非顛覆性。此后多年這些原則被不同場合和機構反復強調。
2025年2月12日,巴黎AI峰會上58國簽署《關于發展包容、可持續的人工智能造福人類與地球的聲明》,提出6條優先事項,包括促進人工智能的可及性以減少數字鴻溝,確保人工智能開放、包容、透明、合乎道德、安全、可靠并值得信賴。
這種原則性的描述無疑是正當、有共識和令人向往的。多年來這些原則被反復陳述討論,但并沒有置于可分析的學術框架中深化,缺乏可測度和可比較的維度或指標,因而在相當程度上無法用于判斷不同技術或產品的優劣,難以系統權衡不同規則的實施成本與社會收益,治理原則落地實踐更是推進緩慢。
2.評判AI社會價值的經濟學邏輯:提高資源配置效率并能公平分享成果
一種技術經濟效應的評估,根本在于是否有利于經濟發展和社會公平,這也是經濟學“理性”的本質要求。因此,從經濟學的角度,可以用是否促進“社會資源配置效率提高以及發展成果相對公平分配”作為AI發展方向的評判核心標準。
AI帶來社會資源配置效率提高的作用無人質疑,擔憂主要是源自AI對社會公平的影響。從這個角度看,AI的沖擊可以分為兩類:
一類是對公平性原有平衡的沖擊。一是大型企業對各種資源的支配地位加強,對數據、算力和算法的掌控能力使得大型企業和大型組織市場支配地位更加突出,中小企業、中小投資者地位更加弱化。
二是資源配置中“算法”的影響日益增強。大數據可以嵌入傳統資源配置決策過程,例如誰可以以什么條件獲得貸款及其他資源。資源配置進一步向優勝者傾斜,大者愈大、優者更優,產生公平性方面的持續沖擊。
三是各種生產要素中勞動力的相對重要性下降,就業機會減少、收入減少。技術壟斷力量帶來的經濟租金無法在技術與資本持有者和勞動者之間共享,導致經濟發展的包容性較差。
一類是AI原生能力對公平的沖擊。人工智能大模型對市場競爭帶來新挑戰,呈現邊際報酬遞增現象,大模型表現更加強勢。
模型愈大,優化迭代需要的參數愈少;或者相同參數量下,模型愈大,迭代優化步驟更少,強者愈快愈強。還有新能力涌現。一旦超過一個閾值,大模型新生出來的認知、理解和解決問題的能力,是小模型完全沒有的,并不是一個“你多我少”“你先我快”的情況,而是“我有你無”的碾壓式能力。
3.在治理框架方面,需要兼顧弱規則與強規則的協同作用
任何市場有效運轉都需要規則,規則之所以重要,是因為事關“交易”和“預期”。
絕大部分市場規則分為兩種,一種是弱規則,內生于市場博弈,沒有公權力和強制力,諸如自愿交易、討價還價、履行契約等都是各類市場內生規則。另外一類是強規則,主要是政府的監管和法律,用來約束破壞市場公平競爭的力量,防止劣幣驅逐良幣,以及約束內生于市場或外生于強權的壟斷勢力。
AI時代,目前看到以及想象未來應該還是這樣的模式,弱規則與強規則共同發揮治理作用。
AI治理中,弱規則依然泛在、基礎而有效。例如,內部外部競爭壓力推動平臺構建自己生態圈內的算法治理規則。內部平衡各方利益使生態圈中各相關方可以依規相處并不斷擴大共識者數量,不斷擴大平臺規模。外部在可競爭環境中爭取自己生態圈利益最大化。
再如意見表達和輿情壓力,網絡空間的意見表達極為便利,社會各方與技術方就創新的可接受性做出反饋,并對某些行為和動向構成有效約束。當社會輿情一致反對某類大規模減少就業者數量的AI技術應用時,的確形成有效約束。
再如軟件和模型開源,開源技術源于軟件,已經廣泛用于各類互聯網物聯網以及大模型。開源最快分享知識,賦能更多主體具備AI時代的競爭力,減少技術壟斷帶來社會福利損失。這些都是各利益相關方相互博弈和互動產生的局部性、條線性或社區性的治理規則,雖然范圍、力度以及強制力都有限,但的確有效果,防止事態走向極端。
經濟學角度的AI治理強規則包括以下幾種。
一是負面清單管控。例如約束大型網絡平臺企業的壟斷行為,要允許第三方在特定情況下與大平臺提供的服務進行交互操作,要允許用戶訪問他們在平臺上業務運營產生的數據,不得優待平臺自身或關聯企業提供的服務和產品,不得阻止用戶卸載任何預安裝的軟件或應用程序等。
二是透明度要求。只有保障各方知情和有效參與治理,公眾知情和表達意愿才能形成弱監管。
三是保護數字弱勢群體權益,維護公平底線。當前要高度重視失業沖擊,處理不好可能會帶來比較大的社會問題。
現在技術帶來的失業問題與以往不同,過去多輪技術革命,新創造的崗位比替代掉的崗位多,但AI還會如此嗎?目前看上去似乎難以認為歷史會重現。
尤其在AI時代,信息廣泛傳播使全社會都能更多了解正在發生的事態及其影響,所謂“無知之幕”支撐社會共識形成與理性決策的“無知”不復存在,以正零和博弈或者正加總效應來論證技術發展的“利弊”更不易被接受。當社會認為贏家的“利”不能完全抵消輸家的“弊”時,這個問題更需要得到及時有效的處理。
最后想說的是,人文社會科學必須走到時代變遷的前端,點亮AI時代人文社會科學的理性之光。人工智能進步對人類自身和人類社會帶來深刻影響,有些影響是不可逆的,因此不能交由技術專家來決策。
由于技術演進及其對經濟社會規則的沖擊很可能快于相應強監管能力的提升,僅靠政府力量難以有效行動,強監管可能一時跟不上,各種弱規則很可能是治理主力。多方合作治理就有多方理念和利益介入,如何處理好其中各種權重與關系,需要社會科學多學科匯聚專業知識和能力。
(作者系中國社科院大學教授、國務院原副秘書長)
第一財經獲授權轉載自微信公眾號“中國金融四十人論壇”。