1. <small id="rw2jk"></small>
      網絡安全 頻道

      破局大數據時代隱私難題,教AI學習“遺忘”或成關鍵

        【IT168 評論】一年前,歐盟《通用數據保護條例》(GDPR)正式生效,條例中革命性地提出了“被遺忘權”——一項賦予個人的可以刪除其在互聯網(如搜索引擎或社交網絡)已發布信息的權利,“被遺忘權”自被提出以來引起多方熱議。

        而中國與之相應的數據保護規則在更早的2018年5月1日就已生效,《個人信息安全規范》(“標準”)是中國發布的第一部個人信息保護國家標準,其中規定了個人信息保護的詳細要求,并有望成為在中國處理個人信息的良好實踐指南。“標準”中首次引入并區分了“匿名化”與“去標識化”的概念。

        大數據時代,數字隱私問題成為公眾持續關注的焦點之一,政府、企業及媒體也紛紛就如何妥善地收集、存儲和使用數據,以及個人信息所有權等問題展開廣泛而深入的探討。然而,在我們竭力解決這一難題時,卻往往忽略了另一個關鍵問題——人工智能(AI)與機器學習正日漸滲透至生活的方方面面,一旦我們的信息數據被輸入相應的算法中,我們又該如何掌控這些數據?

        一個周知的事實是,幾乎每家現代化企業都在以特定的方式收集用戶的數據,此外,企業還會存儲、分析,甚至售賣、交易這些數據,并用以訓練 AI 系統。我們日常的推薦引擎如在線視頻推薦、購物推薦等,均由此而來。

        但需注意的是,在將數據輸入AI后,目前尚無撤回數據或是撤銷運算的有效辦法。當我們試圖行使“被遺忘權”時,擺在我們面前的是從眾多企業和數據交易公司收回特定數據的難題。此外,我們面臨的另一困局是,即便我們能成功撤回數據,我們又該如何讓機器學會“遺忘”某些記憶?

        對于當今的“AI一代”,特別是那些尚未成年的青少年及兒童而言,這更是一個需要關注的核心問題。伴隨AI成長的他們,經歷了有史以來最大規模的“beta 測試”,這一測試并未考慮給予未成年人足夠的容錯空間,也未將未成年人需要成長空間這一現實考慮在內。舉一個例子,算法的“公正與無私”意味著它們在收集未成年人犯罪數據時,并不會“手下留情”,它們將賦予這些犯罪數據與其他數據相同的權重,這些犯罪數據和其他的數據一樣,將被AI“記住”。隨著數據不斷滲進生活,犯罪數據還可能會被強化,修正的機會非常有限。

        具體來說,大學招生老師可能會在社交媒體上看到學校申請人的犯罪記錄照片,或許還能聽到該申請人12 歲時在家中通過亞馬遜語音助手錄制的語音。

        但正如前代人一樣,“AI 一代”需要容錯空間,也應當給予其足夠的修正與規范的時間。

        亟待保護的未成年人隱私

        縱觀以往,無論是完善廣告法、消除青少年犯罪記錄、亦或是頒布《兒童在線隱私保護法》,我們一直在試圖借助不同的舉措保護未成年人,給予他們更多的容錯空間,這一切基于整個社會的共同信念——成年期與兒童期之間存在明顯的界限,我們應對青少年更加寬容,在標準與問責上區別對待。

        但今天的未成年人卻并不能盡享這樣的權利,我們鮮少對數據收集,以及那些滲透至未成年人日常生活中的 AI 進行管控,也鮮少有人認真考慮放任AI的后果。社會往往會對那些如今看起來微不足道的進步展開更嚴格的探討,例如,美國政府曾一度十分關注車載收音機的發明,與今天的全民數字自由相比,20 世紀中期的道德恐慌令人費解。

        如果我們不去討論數據收集及AI 驅動型世界對未成年人的影響,就只能對這一切進行想象。犯錯之后汲取教訓是未成年人在物理世界中學習的方式,但在數字世界中,當 AI 記錄、分析甚至共享用戶的每一次點擊、查看、交互和購買行為時,算法是否能識別過失,并理解過失者的懊悔?又或者說,算法是否會為了自己的目的,通過強化不良行為去推進行動和決策?

        我們尤須警惕的是,輸入到這些算法中的海量數據,能夠支持算法如人類一般憑經驗直觀地決策。過去的計算機只是簡單地執行人類所編寫的指令,如今的算法已有巨大突破。現在,先進的 AI 系統可通過分析其內化數據,提出超出人們想象甚至理解的解決方案,許多 AI 系統已成為“盲盒”,其研發人員也無法推斷出算法到底經歷了怎樣的演算,從而做出對應決策。

        難解的“大數據”道德困境

        使用數字服務時需進行權衡,已成為如今人所共知的事實,但人們并不清楚是,究竟有多少信息會被捕獲?這些信息將被共享給誰?以及會被如何使用?在我們眼中,電子郵件地址和出生日期或許只是零散的拼圖碎片,但當這些零散的信息源源不斷地被計算機算法持續收集時,最終或許會組成令人震驚的信息全景。

        一個著名的案例是,2012年《紐約時報》發表了一篇報道,講述了一家大型零售商的客戶預測模型是如何通過一個女孩郵箱中的個性化廣告,判斷并告知女孩的父親他十幾歲的女兒懷孕了的故事。故事發表至已有7年的時間,這7年間技術不僅更為進步,算法也在持續運行成長。

        在2019年的今天,算法可收集的個人信息資料遠比七年前更為豐富。上述案例中的青少年女孩也已是成年人,但在AI系統中,關于她曾懷孕的信息將永遠存在,誰又有權知曉這些信息?AI系統有權對此做出判斷嗎?

        在中國,AI的使用與個人隱私權的保護仍在博弈階段。《2018年諾頓LifeLock網絡安全調查報告》顯示,85%的中國人比以往更加警惕隱私安全,這個比例在全球16個國家中占據前列;40%的受訪者認為企業將個人數據的使用控制權交還給用戶是“絕對必要的”。根據《南方都市報》今年9月的報道,雖然AI目前在中國的教育行業落地還處于早期階段,但人臉識別或是電子手環等AI智能系統的使用,被質疑“侵犯隱私權”以及“過度延伸學校管束權利”;而AI在醫療方面的應用上則明顯能看出其雙面性來:一方面,醫療數據的泄露對一個人未來的生活與工作發展是致命的;另一方面,醫療大數據在提高診斷準確性和優化臨床決策等方面發揮著巨大作用,完善數據系統與發展大數據收集與存儲等新技術意義重大。

        問題的關鍵正在于此,所有的數據收集和個性化推薦在被惡意使用之前,似乎都是“中立的”,甚至“善意的”。然而AI的由善至惡似乎只是時間問題,展望一下,圍繞AI我們還有很多的未解難題,比如,人在去世之后對其個人數據是否還擁有所有權,人在死亡后,AI能否還能將其數據用于AI學習?

        物理世界中,我們對自己的財產具有選擇權與控制權。比如,在去世前,我們會確認是否同意并愿意進行器官捐獻,或是確認個人遺產的繼承與歸屬。但在數字世界中,這一切都無法達成。試想一下,如果一個人在離世后,其身體、財產、精神遺產可被企業永久無償使用,那會多么令人憤怒,但在數字世界中,這一切都得到了允準。

        如果沒有適用的法律或規則來設定紅線,沒有技術用以改變這一“可能的困境”,那么我們將面對一個無人控制的分散系統,算法無法選擇“遺忘”什么,又“記住”什么,而負責構建算法的工程人員也沒有理由、興趣,甚至能力來解決這一難題。

        教AI學會“遺忘”已刻不容緩

        AI始于學術界,甫一出現即出于利他目的。AI 的進步或將給世界帶來更多可能,比如它可以幫助解決溫飽,治愈病人;企業則借助AI了解客戶的需求,提供更好的產品與服務。憑借費用低廉的存儲和看似無窮無盡的容量,AI 在世界范圍內,都成為了一項極具吸引力的技術工具,但AI在海量收集數據的同時,卻無法輕易地“遺忘”數據。

        此外, AI 系統雖然具備超凡的記憶力,但并非絕對可靠,研究人員最新的調查顯示,AI 可能會在“壓力”下泄露秘密與數據。這一發現意味著AI的“無法遺忘”不僅會造成隱私困境,還可能真正引發全球安全問題。

        教AI學會“遺忘”在行動上業已刻不容緩。但需要明確的是,AI并非這一切問題的始作俑者,作為研發者的人類才應負起相應的責任。此外,隱私保護并非易事,但我們可以選擇制定秩序,重新賦予公眾“被遺忘權”。

        目前已有實驗開始研究潛在的解決方案,但真正的轉變仍仰賴包括引領 AI 研發的先進私營實體、技術專家、倫理學家、社會學家、相關學者研究人員以及政府在內的不同組織通力協作,通過共同的努力搭建保障措施框架,以指導AI系統未來幾十年內的發展。

      0
      相關文章
        影视站