人工智能(AI)的應(yīng)用如今無處不在,為智能助理、垃圾郵件過濾、搜索引擎等應(yīng)用程序提供愈發(fā)強(qiáng)大的驅(qū)動(dòng)力,帶來更加個(gè)性化的體驗(yàn),提升業(yè)務(wù)效率,以及提高安全性。但實(shí)踐表明,AI技術(shù)帶來了多重好處的同時(shí),隨之而來的數(shù)據(jù)隱私風(fēng)險(xiǎn)也與日俱增。
最近的研究表明,基于AI的深度學(xué)習(xí)模型能夠根據(jù)胸部X光片等放射學(xué)圖像來確定患者的種族,而且比人類學(xué)專家具有更高的準(zhǔn)確性。凱捷咨詢公司首席數(shù)據(jù)科學(xué)家Sandeep Sharma指出,AI應(yīng)用于個(gè)人數(shù)據(jù)收集和分析時(shí),存在侵犯個(gè)人隱私的巨大風(fēng)險(xiǎn)。同時(shí)由于使用AI的組織之間缺乏對隱私的足夠了解,更是加劇了這種威脅。
總體來看,當(dāng)前企業(yè)組織的涉及個(gè)人信息類AI應(yīng)用存在幾大顯著問題:一是將數(shù)據(jù)用于收集以外的目的;二是收集不屬于數(shù)據(jù)收集范圍的個(gè)人信息;三是存儲數(shù)據(jù)超過必要的時(shí)間。這些都可能會(huì)違反有關(guān)數(shù)據(jù)隱私的法規(guī),比如歐盟的通用數(shù)據(jù)保護(hù)條例(GDPR)等。
AI應(yīng)用加劇數(shù)據(jù)隱私暴露風(fēng)險(xiǎn)
基于AI的系統(tǒng)所帶來的風(fēng)險(xiǎn)涉及多個(gè)方面。例如,英國Burges Salmon律師事務(wù)所的技術(shù)團(tuán)隊(duì)高級助理Tom Whittaker認(rèn)為,需要考慮到AI潛在的偏見。AI系統(tǒng)依賴于數(shù)據(jù),涉及到個(gè)人數(shù)據(jù)時(shí),這些數(shù)據(jù)或模型的訓(xùn)練方式可能會(huì)無意中產(chǎn)生偏差。
與此同時(shí),AI系統(tǒng)也有可能受到破壞,個(gè)人的隱私信息也有可能被泄露。Whittaker指出,一部分原因是AI系統(tǒng)依賴于大型數(shù)據(jù)集,這可能使它們成為網(wǎng)絡(luò)攻擊的主要目標(biāo)。AI系統(tǒng)輸出的數(shù)據(jù)有可能直接或與其他信息結(jié)合時(shí)暴露個(gè)人的隱私信息。
隨著AI系統(tǒng)用于越來越多的應(yīng)用程序,社會(huì)也面臨更普遍的風(fēng)險(xiǎn)。信用評分、犯罪風(fēng)險(xiǎn)分析和移民裁定就是其中的的一些例子。如果AI或其使用方式存在缺陷,人們可能會(huì)受到比其他情況下更大的隱私侵犯。”
AI也可以對數(shù)據(jù)隱私產(chǎn)生積極影響
然而也有一些專家指出,AI可以對隱私產(chǎn)生積極影響。它可以用作隱私增強(qiáng)技術(shù)(PET)的一種形式,以幫助組織通過設(shè)計(jì)義務(wù)遵守?cái)?shù)據(jù)保護(hù)。
Whittaker對此解釋說,“AI可用于創(chuàng)建復(fù)制個(gè)人數(shù)據(jù)模式和統(tǒng)計(jì)屬性的合成數(shù)據(jù)。AI還可以通過加密個(gè)人數(shù)據(jù)、減少人為錯(cuò)誤以及檢測潛在的網(wǎng)絡(luò)安全事件,將侵犯隱私的風(fēng)險(xiǎn)降至最低!
一些國家政府看到了AI好的一面。比如愛沙尼亞經(jīng)濟(jì)事務(wù)和通信部政府首席數(shù)據(jù)官Ott Velsberg就表示,AI在各行業(yè)領(lǐng)域發(fā)揮著關(guān)鍵作用,愛沙尼亞政府的目標(biāo)是到2030年實(shí)現(xiàn)AI的廣泛應(yīng)用。
他介紹,為了在應(yīng)用的同時(shí)確保遵守?cái)?shù)據(jù)保護(hù)法規(guī),愛沙尼亞開發(fā)了一項(xiàng)服務(wù),使人們能夠與外部利益相關(guān)者共享政府持有的數(shù)據(jù)。此外愛沙尼亞推出了一個(gè)數(shù)據(jù)跟蹤器,可以在政府門戶網(wǎng)站上查看個(gè)人數(shù)據(jù)的處理情況。
隱私法規(guī)遵從是AI落地應(yīng)用的關(guān)鍵
AI目前受到包括GDPR在內(nèi)的法規(guī)的監(jiān)管,但未來還會(huì)出臺更多的隱私法規(guī)。目前,歐盟擁有法律上最強(qiáng)大的AI相關(guān)隱私保護(hù)。
Whittaker指出,歐盟還計(jì)劃引入更多針對AI的法規(guī),旨在禁止某些AI系統(tǒng)濫用數(shù)據(jù),并對任何高風(fēng)險(xiǎn)的系統(tǒng)規(guī)定義務(wù),規(guī)定如何存儲和使用數(shù)據(jù)。這些法規(guī)與那些在歐盟市場部署AI系統(tǒng)的人員有關(guān),將影響那些向歐盟銷售或部署AI解決方案的企業(yè)。
為此,在嘗試管理AI的風(fēng)險(xiǎn)時(shí),企業(yè)領(lǐng)導(dǎo)者應(yīng)當(dāng)了解當(dāng)前和計(jì)劃中的AI監(jiān)管政策,不遵這些守法規(guī)可能會(huì)導(dǎo)致嚴(yán)重后果。報(bào)道顯示,違反歐盟提議的AI法案規(guī)定的高風(fēng)險(xiǎn)義務(wù),可能面臨高達(dá)2000萬歐元或高達(dá)年?duì)I業(yè)額4%的罰款。
首先,對于使用AI系統(tǒng)的企業(yè)組織來說,數(shù)據(jù)使用方式的透明度至關(guān)重要。如果用戶不知道他們受到AI決策的影響,他們將無法理解或質(zhì)疑它。其次,要確保用戶對數(shù)據(jù)使用的知情權(quán),并合理合法地使用數(shù)據(jù)。再次,組織應(yīng)確保AI算法本身以及它們所依賴的數(shù)據(jù)經(jīng)過精心設(shè)計(jì)、開發(fā)和管理,以避免不必要的負(fù)面后果。
一言以蔽之,AI應(yīng)用中良好的數(shù)據(jù)安全措施是不可或缺的。組織不要收集不必要的數(shù)據(jù),并確保在一定時(shí)間后刪除信息。同時(shí)確保對數(shù)據(jù)的訪問受到適當(dāng)限制,并且具有良好的安全實(shí)踐。
綜上,AI無疑是一種改變游戲規(guī)則的技術(shù),將廣泛出現(xiàn)在商業(yè)應(yīng)用中,但必須對其進(jìn)行負(fù)責(zé)任的管理,以避免侵犯隱私。為此,企業(yè)領(lǐng)導(dǎo)者需要更批判性地思考AI是如何被使用和濫用的,發(fā)揮AI的積極影響,規(guī)避AI的消極作用。