從生成式AI走向智能體,從預(yù)訓(xùn)練走向推理,從信息智能走向物理智能和生物智能,AI技術(shù)在迅速迭代的同時(shí)也帶來(lái)了更多的安全和治理問(wèn)題。
在博鰲亞洲論壇2025年年會(huì)上,與會(huì)專家圍繞技術(shù)應(yīng)用與風(fēng)險(xiǎn)平衡、倫理規(guī)范、國(guó)際合作等方向展開(kāi)了深度討論。有觀點(diǎn)認(rèn)為,過(guò)度嚴(yán)格的治理措施可能會(huì)抑制創(chuàng)新,使企業(yè)和研究機(jī)構(gòu)在開(kāi)發(fā)AI技術(shù)時(shí)受到過(guò)多限制,影響技術(shù)的發(fā)展速度和應(yīng)用效果。但也有專家認(rèn)為,如果只注重創(chuàng)新而忽視治理,可能導(dǎo)致更大的技術(shù)失控。
“比起‘黑天鵝’事件,我們更要避免‘灰犀牛’事件的發(fā)生。”博鰲期間,一位參會(huì)代表對(duì)第一財(cái)經(jīng)記者表示,黑天鵝事件,因其難以預(yù)料只能盡力應(yīng)對(duì),但灰犀牛事件不同,大家清楚存在的風(fēng)險(xiǎn),所以應(yīng)該竭盡全力將灰犀牛事件發(fā)生及爆發(fā)的可能性降至最低,此時(shí)共建一個(gè)透明、可理解、可信的、負(fù)責(zé)任的AI生態(tài)尤為重要。
AI中的認(rèn)知漏洞
“AI時(shí)代最大的安全漏洞是認(rèn)知漏洞,如何平衡治理與創(chuàng)新,如何在全社會(huì)形成共識(shí),是比技術(shù)更根本的挑戰(zhàn)。”vivo首席安全官魯京輝在博鰲期間對(duì)記者表示,AI時(shí)代的安全已從“Security”轉(zhuǎn)向“Safety”,不僅要防攻擊,更要考慮倫理影響和社會(huì)系統(tǒng)性風(fēng)險(xiǎn),如虛假內(nèi)容、深度偽造、惡意引導(dǎo)等新型威脅。
在他看來(lái),當(dāng)前,業(yè)界正從技術(shù)、管理、倫理等維度,努力讓基于大模型的通用人工智能變得更具可解釋性。然而這一工作極為復(fù)雜,原因在于技術(shù)持續(xù)演進(jìn)變化巨大,而這些變化背后潛藏著諸多不確定的風(fēng)險(xiǎn)因素。
“盡管我們有將風(fēng)險(xiǎn)置于可控框架內(nèi)運(yùn)作的大致概念,但挑戰(zhàn)在于它不僅涉及技術(shù)層面,更關(guān)鍵的是認(rèn)知層面的問(wèn)題。這需要全社會(huì)共同參與,包括人工智能及生成式人工智能的研究者、開(kāi)發(fā)者、政策制定者,乃至最終用戶大家必須形成共識(shí),只有通過(guò)這種共識(shí)機(jī)制,才能切實(shí)保障人工智能系統(tǒng)健康、透明、負(fù)責(zé)任地發(fā)展。”魯京輝對(duì)記者說(shuō)。
在博鰲的一場(chǎng)分論壇中,中國(guó)科學(xué)院自動(dòng)化研究所研究員曾毅也談到了類似觀點(diǎn)。他表示,AI的倫理安全應(yīng)該成為技術(shù)發(fā)展的基因,確保其與人類價(jià)值觀保持一致。他建議,將倫理安全融入AI開(kāi)發(fā)的底層設(shè)計(jì),并視為“第一性原則”,不可刪除、不可違背。
“有責(zé)任地發(fā)展人工智能,意味著人類開(kāi)發(fā)者和部署者需要承擔(dān)責(zé)任。飛機(jī)、高鐵都能無(wú)人駕駛,但駕駛員仍在崗位。人工智能高速發(fā)展,但人類始終應(yīng)該做自己和AI的守護(hù)者。”曾毅對(duì)記者表示,智能體的安全問(wèn)題,一定要讓決策權(quán)力掌握在人類手中。
在中國(guó)工程院院士、清華大學(xué)智能產(chǎn)業(yè)研究院院長(zhǎng)張亞勤看來(lái),就可能存在的風(fēng)險(xiǎn)而言,設(shè)定AI技術(shù)紅線與邊界是關(guān)鍵。
“AI風(fēng)險(xiǎn)可以分解為可信度與可控性兩個(gè)層面。前者要求AI在執(zhí)行任務(wù)時(shí)遵循人類期望、倫理規(guī)范和國(guó)家法律,不產(chǎn)生誤導(dǎo)性、有害或不公平的結(jié)果,后者則確保人類能有效監(jiān)控、干預(yù)和糾正AI行為,避免失控或不可預(yù)測(cè)的后果。”張亞勤說(shuō)。
值得一提的是,為了規(guī)范人工智能生成合成內(nèi)容標(biāo)識(shí),今年3月14日,國(guó)家網(wǎng)信辦、工信部、公安部、國(guó)家廣電總局聯(lián)合發(fā)布《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法》,要求對(duì)生成合成內(nèi)容添加顯式標(biāo)識(shí),并規(guī)范生成合成內(nèi)容傳播活動(dòng),自9月1日起施行。
藏在“冰山下”的風(fēng)險(xiǎn)
如何做到應(yīng)用與治理的平衡推進(jìn),讓數(shù)據(jù)不再裸奔?目前產(chǎn)業(yè)、學(xué)界、監(jiān)管各方仍有不同的答案。不過(guò)對(duì)于與會(huì)嘉賓來(lái)說(shuō),多方協(xié)作、動(dòng)態(tài)治理、倫理優(yōu)先、技術(shù)透明是共識(shí)所在。
但在產(chǎn)業(yè)實(shí)踐之中,各行各業(yè)所面臨的AI問(wèn)題并不相同。以手機(jī)行業(yè)為例,伴隨AI智能體“接管”手機(jī)屏幕,數(shù)據(jù)安全和隱私保護(hù)問(wèn)題正變得更加復(fù)雜。
“比如,AI智能體打破了原有操作系統(tǒng)技術(shù)架構(gòu),產(chǎn)生了新交互方式和行為,這涉及到權(quán)限管理和數(shù)據(jù)流轉(zhuǎn)的根本性變革,需要重新定義技術(shù)基線。”魯京輝對(duì)記者表示,作為商業(yè)企業(yè),既會(huì)重視技術(shù)的商業(yè)價(jià)值,但也會(huì)堅(jiān)守底線與紅線思維,投入資源從內(nèi)部多維度構(gòu)建AI安全治理體系的同時(shí),也對(duì)外參與行業(yè)標(biāo)準(zhǔn)制定,通過(guò)行業(yè)聯(lián)盟達(dá)成AI治理的效果。
在他看來(lái),手機(jī)廠商在AI治理與安全方面,從實(shí)施層面有兩個(gè)維度,分別是數(shù)據(jù)生命周期和業(yè)務(wù)生命周期。在數(shù)據(jù)生命周期,要保證數(shù)據(jù)高質(zhì)量,防止低質(zhì)量或惡意數(shù)據(jù)污染大模型,確保數(shù)據(jù)安全。而從業(yè)務(wù)生命周期,大模型本身要考慮算法安全性,防范訓(xùn)練中的惡意攻擊,部署時(shí)兼顧傳統(tǒng)與AI業(yè)務(wù)防護(hù)手段,干預(yù)大模型不可解釋性及AI幻覺(jué)問(wèn)題。
“其實(shí)核心的底線就是要做好數(shù)據(jù)安全和隱私保護(hù),但是坦白說(shuō),這個(gè)保護(hù)是冰山下的,很多是看不到的,風(fēng)險(xiǎn)來(lái)自于外部環(huán)境的變化,我們盡量把灰犀牛的事件發(fā)生可能性降到最低,內(nèi)部組織上也會(huì)設(shè)立專門(mén)的攻防團(tuán)隊(duì)來(lái)在各個(gè)業(yè)務(wù)部門(mén)做部署。”魯京輝說(shuō)。
不過(guò),正因?yàn)橹悄荏w的廣泛運(yùn)用,這種“未知的、藏在冰山下”的AI風(fēng)險(xiǎn)在張亞勤看來(lái)正在快速提升。
“風(fēng)險(xiǎn)至少上升一倍。”張亞勤認(rèn)為,智能體具有自我規(guī)劃、學(xué)習(xí)、試點(diǎn)并達(dá)到自己目的的能力,是強(qiáng)大的技術(shù)工具,但在其運(yùn)行過(guò)程中,里面有很多未知的因素,中間路徑不可控。智能算法并不完全是黑盒子,但是很多東西并不清楚機(jī)理,所以帶來(lái)很大風(fēng)險(xiǎn)。一種是可控風(fēng)險(xiǎn),一種是被壞人所利用的風(fēng)險(xiǎn)。因此,使用智能體的時(shí)候需要做一些標(biāo)準(zhǔn),比如限制智能體自我復(fù)制,以降低失控風(fēng)險(xiǎn)。
針對(duì)通過(guò)制定標(biāo)準(zhǔn)能否解決人工智能的安全性問(wèn)題,魯京輝表示,安全性問(wèn)題不能簡(jiǎn)單地通過(guò)制定法律或規(guī)則解決,全球?qū)Α鞍踩浴倍x也尚未統(tǒng)一。
“歐洲重合規(guī),美國(guó)重發(fā)展,中國(guó)求平衡,到底哪一種是標(biāo)準(zhǔn)答案,還需要實(shí)踐來(lái)證明。”在他看來(lái),安全沒(méi)有標(biāo)準(zhǔn)答案,但企業(yè)必須有標(biāo)準(zhǔn)動(dòng)作,企業(yè)需要一種更動(dòng)態(tài)的、更敏捷地平衡于發(fā)展和安全之間的新的治理模式,既不做保守的防守者,也不做野蠻的開(kāi)拓者。