人工智能(AI)的應用如今無處不在,為智能助理、垃圾郵件過濾、搜索引擎等應用程序提供愈發強大的驅動力,帶來更加個性化的體驗,提升業務效率,以及提高安全性。但實踐表明,AI技術帶來了多重好處的同時,隨之而來的數據隱私風險也與日俱增。
最近的研究表明,基于AI的深度學習模型能夠根據胸部X光片等放射學圖像來確定患者的種族,而且比人類學專家具有更高的準確性。凱捷咨詢公司首席數據科學家Sandeep Sharma指出,AI應用于個人數據收集和分析時,存在侵犯個人隱私的巨大風險。同時由于使用AI的組織之間缺乏對隱私的足夠了解,更是加劇了這種威脅。
總體來看,當前企業組織的涉及個人信息類AI應用存在幾大顯著問題:一是將數據用于收集以外的目的;二是收集不屬于數據收集范圍的個人信息;三是存儲數據超過必要的時間。這些都可能會違反有關數據隱私的法規,比如歐盟的通用數據保護條例(GDPR)等。
AI應用加劇數據隱私暴露風險
基于AI的系統所帶來的風險涉及多個方面。例如,英國Burges Salmon律師事務所的技術團隊高級助理Tom Whittaker認為,需要考慮到AI潛在的偏見。AI系統依賴于數據,涉及到個人數據時,這些數據或模型的訓練方式可能會無意中產生偏差。
與此同時,AI系統也有可能受到破壞,個人的隱私信息也有可能被泄露。Whittaker指出,一部分原因是AI系統依賴于大型數據集,這可能使它們成為網絡攻擊的主要目標。AI系統輸出的數據有可能直接或與其他信息結合時暴露個人的隱私信息。
隨著AI系統用于越來越多的應用程序,社會也面臨更普遍的風險。信用評分、犯罪風險分析和移民裁定就是其中的的一些例子。如果AI或其使用方式存在缺陷,人們可能會受到比其他情況下更大的隱私侵犯。”
AI也可以對數據隱私產生積極影響
然而也有一些專家指出,AI可以對隱私產生積極影響。它可以用作隱私增強技術(PET)的一種形式,以幫助組織通過設計義務遵守數據保護。
Whittaker對此解釋說,“AI可用于創建復制個人數據模式和統計屬性的合成數據。AI還可以通過加密個人數據、減少人為錯誤以及檢測潛在的網絡安全事件,將侵犯隱私的風險降至最低!
一些國家政府看到了AI好的一面。比如愛沙尼亞經濟事務和通信部政府首席數據官Ott Velsberg就表示,AI在各行業領域發揮著關鍵作用,愛沙尼亞政府的目標是到2030年實現AI的廣泛應用。
他介紹,為了在應用的同時確保遵守數據保護法規,愛沙尼亞開發了一項服務,使人們能夠與外部利益相關者共享政府持有的數據。此外愛沙尼亞推出了一個數據跟蹤器,可以在政府門戶網站上查看個人數據的處理情況。
隱私法規遵從是AI落地應用的關鍵
AI目前受到包括GDPR在內的法規的監管,但未來還會出臺更多的隱私法規。目前,歐盟擁有法律上最強大的AI相關隱私保護。
Whittaker指出,歐盟還計劃引入更多針對AI的法規,旨在禁止某些AI系統濫用數據,并對任何高風險的系統規定義務,規定如何存儲和使用數據。這些法規與那些在歐盟市場部署AI系統的人員有關,將影響那些向歐盟銷售或部署AI解決方案的企業。
為此,在嘗試管理AI的風險時,企業領導者應當了解當前和計劃中的AI監管政策,不遵這些守法規可能會導致嚴重后果。報道顯示,違反歐盟提議的AI法案規定的高風險義務,可能面臨高達2000萬歐元或高達年營業額4%的罰款。
首先,對于使用AI系統的企業組織來說,數據使用方式的透明度至關重要。如果用戶不知道他們受到AI決策的影響,他們將無法理解或質疑它。其次,要確保用戶對數據使用的知情權,并合理合法地使用數據。再次,組織應確保AI算法本身以及它們所依賴的數據經過精心設計、開發和管理,以避免不必要的負面后果。
一言以蔽之,AI應用中良好的數據安全措施是不可或缺的。組織不要收集不必要的數據,并確保在一定時間后刪除信息。同時確保對數據的訪問受到適當限制,并且具有良好的安全實踐。
綜上,AI無疑是一種改變游戲規則的技術,將廣泛出現在商業應用中,但必須對其進行負責任的管理,以避免侵犯隱私。為此,企業領導者需要更批判性地思考AI是如何被使用和濫用的,發揮AI的積極影響,規避AI的消極作用。