飛象原創(遠山/文)當一段視頻通話中的“領導”以急事為由要求轉賬,當社交媒體上突然出現“明星代言”的虛假廣告,當父母收到“子女”聲淚俱下的求助語音……這些看似荒誕的場景,正隨著AI換臉與語音克隆技術的普及,成為新型犯罪的溫床。
技術的光影之下,人性的貪婪與法律的滯后交織成一張復雜的網,既時刻威脅著個體的權益,同時也拷問著社會治理的智慧。
技術濫用的現實圖景:從個案到現象
2025年春節前夕,西安市雁塔區法院審理的一起案件引發關注。某公司未經授權使用AI換臉技術,將一名女演員的肖像嫁接至帶貨視頻中,誤導消費者認為其與商品存在代言關系。法院最終判決該公司賠償經濟損失并公開道歉。
這僅是冰山一角。更惡劣的案例中,杭州的虞某利用AI換臉制作并傳播淫穢視頻,非法牟利超百萬元,最終被判處七年三個月有期徒刑。
技術的“易得性”與犯罪的“低成本”形成鮮明對比——廣州南沙區法院2024年判決的一起案件中,五名被告人僅憑購買教程和開源軟件,便搭建起一條通過偽造人臉識別視頻非法修改系統數據的黑色產業鏈,涉案金額高達120萬元。
而更具迷惑性的,是技術對人際信任的瓦解。天津市民李先生接到“領導”視頻電話,畫面中對方神態自若,聲音與慣常無異。在“眼見為實”的心理暗示下,他分三次轉賬95萬元,直到次日當面確認才知受騙。
類似案件中,江西一位老人甚至因網戀“假靳東”AI換臉視頻,不惜貸款200萬元資助“偶像拍戲”,最終血本無歸。這些案例揭示了一個殘酷現實:當技術能夠完美復刻人類的外貌與聲線,傳統的社會信任機制正在遭遇降維打擊。
技術雙刃劍:重構認知與沖擊秩序
AI換臉與語音克隆的負面影響早已超越個體受害范疇,演變為系統性風險。首先是對人格權的全面侵蝕。《民法典》明確肖像權與聲音權受法律保護,但實踐中,一張照片、一段錄音便足以讓技術偽造出以假亂真的數字分身。2023年河北李先生遭遇的案例中,詐騙者利用其社交照片制作虛假色情視頻實施敲詐,致其社會評價斷崖式下跌。
其次是經濟秩序的混亂。廣州南沙案件中,犯罪團伙通過篡改企業認證數據,幫助未達標公司非法獲取資質,直接擾亂市場競爭環境。類似通過AI技術手段進行不當牟利的事件還有很多,已經對正常的經濟秩序造成越來越顯著的危害。
更深層的危機在于社會認知基石的動搖。當“有圖有真相”淪為過去式,公眾對信息真實性的集體焦慮可能催生普遍的懷疑主義,甚至削弱司法取證的公信力。一旦整個社會的認知基礎受到削弱,隨之而來的就是因信任成本抬升而讓整個社會彌漫著低效、遲鈍與悲觀的氣氛。
我們不得不認識到,技術濫用的危害鏈條仍在延伸。從個人隱私泄露到網絡詐騙,從商業詆毀到政治謠言,技術的每一次迭代都在為犯罪提供新工具,而技術革新的步伐是不可阻擋的,存在可能為潛在的犯罪行為提供機會的漏洞也是在所難免。
據公安部網安局統計,2024年利用深度合成技術實施的詐騙案件同比激增230%,單案最高損失逾千萬元。這種“技術黑產”的蔓延速度,已遠超傳統法律規制的反應周期。
如何治理:法治框架的補位與革新
面對技術狂飆,法律必須成為勒住韁繩的手。現行法律體系已具備初步規制能力:《民法典》第1019條明確禁止利用信息技術偽造他人肖像,第1034條將生物識別信息納入個人信息保護范疇;《刑法》中詐騙罪、侵犯公民個人信息罪等條款可覆蓋多數技術濫用行為。杭州虞某案與廣州南沙案的判決表明,司法機關正通過擴大解釋將新型犯罪納入傳統罪名框架。
但專項立法的缺位仍顯尷尬。全國政協委員靳東在2025年兩會期間直言:“現有法律對AI換臉侵權的低成本與維權高難度失衡,客觀上縱容了技術濫用”。這種困境在《慶余年》AI剪輯侵權案中尤為突出——盡管法院判定侵權,但維權方需耗費數月完成技術鑒定,而侵權者僅需幾分鐘即可生成新內容。
治理創新已在路上。技術治理層面,數字水印技術的推廣為內容溯源提供可能。該技術可在視頻中嵌入隱形標識,記錄創作者與版權信息,一旦內容被篡改即可追蹤源頭。
立法層面,2025年實施的《互聯網信息服務深度合成管理規定》要求AI生成內容添加顯著標識,這為平臺審核提供了抓手。
司法實踐層面,多地法院開始探索“舉證責任倒置”,要求技術使用者自證合法性,減輕被侵權方舉證壓力。
行業新范式:在規制與創新間尋找平衡點
規范技術應用絕不等于扼殺創新。歷史經驗表明,印刷術催生了版權制度,互聯網孕育了數據安全法,每一次技術革命都伴隨著法律體系的適應性進化。
關鍵在于劃定清晰的“技術紅線”:對于影視特效、醫療仿真等正向應用,應通過許可制與行業標準予以鼓勵;而對身份偽造、內容篡改等高風險場景,則需建立分級分類監管體系。全國人大代表雷軍提出的“建立AI換臉技術備案庫”建議,正是試圖在開放創新與風險管控間找到平衡。
企業的技術倫理建設同樣重要。部分平臺已推出“生物特征脫敏”工具,允許用戶上傳照片時自動模糊關鍵特征,既滿足社交需求又降低濫用風險。這種“隱私設計(Privacy by Design)”理念,將合規性嵌入技術開發生命周期,或將成為行業新范式。
多元共治:3.15視角下的治理緊迫性
在2025年“3.15國際消費者權益日”來臨之際,治理AI技術濫用更具現實意義。據中消協最新調查,67%的消費者遭遇過AI合成內容誤導,其中超三成造成直接經濟損失。
當技術欺詐成為消費侵權的重災區,不僅全社會應提高對技術欺詐的警惕性,相關管理職能部門更應強化防范與治理的措施。對于技術欺詐行為,治理行動或可根據具體情況從三方面發力。
一是強化平臺責任,要求社交、電商平臺部署深度合成內容識別系統,對未標注“AI生成”標識的內容限流或下架,同時也應完善甄別與補救措施,避免對正常內容的限制與誤傷;
二是完善救濟機制,建立“AI侵權快速響應通道”,簡化電子證據取證流程,并與相關管理職能部門進行聯動;
三是提升公眾素養,通過案例宣傳揭露常見技術騙局,培養“多重驗證”的安全習慣——正如公安部網安局提示:“涉及轉賬務必通過電話、見面等二次確認”。
技術的列車不會停歇,但軌道必須延伸在法治與倫理的基石之上。從兩會代表呼吁專項立法,到法院判決樹立裁判規則,從企業探索技術合規,到公眾提升防范意識,多元共治的格局正在形成。
唯有讓技術創新在陽光下奔跑,才能避免“技術利維坦”的陰影籠罩人類的未來。