人工智慧也可能有安全問題嗎?我們需要注意什麼呢?
近年因生成式AI的誕生,人工智慧的應用愈來愈廣泛,可以說它已經觸及到我們生活的各個方面,極大地增進了我們的生活水準和工作效率。
然而,這些進步並非毫無缺點, 方便的工具能夠使人們容易對其產生依賴,而它就像是一個黑盒子,人們雖然不知道裡面的運作原理,卻能把放入的原始資料變成你要的答案。假如在不夠理解其內部機制的狀況下依賴這些 AI 模型作出重要決策,會很難及時察覺問題並進行防禦,一旦出事,責任歸屬也將顯得十分曖昧模糊。
再來,工具有好的用途當然也有壞的用途,取決於使用的人,就像武器一樣,能夠保護自己與他人,也有可能至人於死地。有了AI的輔助能夠使我們的日常生活更加便利,但AI卻也能被拿來當作犯罪工具。
人工智慧的安全問題肯定不只有一個,像是數據中毒、對抗攻擊、模型盜竊和反轉、濫用 AI與資料隱私,其中,與我們最息息相關的就是「資料隱私」風險。
關於資料隱私的風險
隨著各個領域大量使用著AI,勢必會讓 AI 處理到許多重要甚至敏感的個人資訊,尤其像是大家都愛用的ChatGPT 等親民的生成式 AI,也很容易讓人一不小心就洩漏重要資訊給機器。
如今,有許多針對訓練資料的攻擊方式出現,例如成員推論攻擊 (Membership Inference Attack)、屬性推論攻擊(Attribute Inference Attack)等(備註),可以透過一小部分的資料,逆推出更多、更完整的個人資訊。
這些推論攻擊,就類似要從數學題的答案,回推原始題目,例如:我們有一組二元一次方程式的答案為「x=2、y=8」,那最基本的做法,就是列舉能得到「x=2、y=8」的所有方程式。
但這樣還是很難回答當初的題目是什麼,因此我們開始調查哪些數學題目會出現這組答案,分析之後發現,通常導出這組答案的,是「x+y=10 」與「x+2y=18」這組聯立方程式。
有了這組聯立方程式,再回頭去看參考書的題目,就會發現這應該是「雞兔同籠」,而「x+2y=18」的原始方程式,應該是「2x+4y=36」。
依上述資訊,就能逆推出題目:「現在籠子裡的雞跟兔,總共有 10 隻,而他們腳的數量,總計為 36,請問雞與兔各有多少隻? 」
調查其他數學題的算式,或是去翻參考書,就是成員推論與屬性推論攻擊的做法。然而,逆推出的數學題未必就是原始樣貌,因此通常會建立多個逆推邏輯,來完善推論的正確性。
在真實世界中,我們可以把「x=2、y=8」,換成是你的生日、電話、社交狀態等個資,然後在網路上肉搜得到資料間的關聯性,類似上面的「x+y=10 」與「x+2y=18」,如果我們在網路上的某個平臺上,發現類似的關聯性,那這個平臺的背後有很大的機率,是以這種方式在運作,就跟回推「雞兔同籠」的邏輯完全相同。
生成式 AI 除了容易讓人無意間透露敏感資料,也可能提供錯誤資訊,進而導致人們做出錯誤決策。這是因為生成模型主要是透過大量網路資料來訓練的,假設這些訓練資料有誤,便會在訓練模型的過程中不斷放大,最終讓模型表現異常,或是給出似是而非的內容,比如編造出一些「不存在的報導」,乍看之下語句通順,但內容其實根本沒有發生過。
為了應對這些新出現的威脅,網絡安全發展出了「零信任」的概念。
何謂零信任(Zero Trust)?
1.改善防止資料外洩的保護
通過對所有訪問嘗試都要求身份驗證和授權,零信任安全性可以防止未經授權的用戶訪問敏感數據和系統。 這種方法與傳統安全模型相反,這種模型通常依賴周邊方法,並假設周邊內的所有流量都受到信任。
憑藉零信任安全性,組織可以防範外部和內部威脅。 外部威脅可能包括來自組織外部的網路攻擊,而內部威脅則可能包括內部威脅和遭入侵的帳戶。 透過持續驗證和授權存取嘗試,零信任安全性可以防止這些威脅存取敏感資料和系統。
在防止資料外洩方面受益於零信任安全性的真實組織範例包括 Google 和 Microsoft。 兩家公司都實施了零信任安全模型,並報告了其安全狀態的顯著改善。 例如,Microsoft 實作零信任安全性有助於防止大量資料外洩造成的帳戶遭到入侵。
總體而言,實施零信任安全性可以幫助組織改善其防止數據洩露的保護,從而對其聲譽和財務穩定性產生重大影響。 透過對所有存取嘗試都要求驗證和授權,零信任安全性可以防止外部和內部威脅存取敏感資料和系統。
2.增強的可見性和控制
零信任使組織可以更精細地控制存取嘗試,並且可以即時監控所有活動。傳統的安全性模型通常提供存取嘗試的能見度有限,而且難以偵測和回應潛在威脅。但是,在零信任安全性的情況下,組織可以監控所有嘗試的存取,包括來自不受信任裝置和位置的嘗試。這可協助 IT 專業人員即時識別並回應潛在威脅。
零信任安全性還允許組織更精細地強制執行存取控制。這可能包括限制對特定資源的存取,或針對特定類型的存取強制執行多因素驗證。 透過實作這些控制項,組織可以更好地管理和控制敏感資料和系統的存取。
零信任安全性為管理資料和系統的存取提供了更全面且有效的方法。 透過提供對存取嘗試的即時可見度和控制,組織可以更好地偵測並回應潛在威脅,同時還能以更精細的層級強制執行存取控制。
3.更安全地存取敏感資料和系統
特權帳戶(例如屬於管理員的帳戶)通常受到攻擊者的目標,他們試圖獲得敏感數據或系統的訪問權限。 零信任安全性可以通過要求額外的身份驗證和授權檢查特權訪問來防止這些攻擊。
除了防止對特權帳戶的攻擊外,零信任安全性還可用於保護 遠端存取、自攜裝置 (BYOD) 原則和 cloud基於環境的安全。 這些類型的存取通常難以保護,但零信任安全性可以提供更全面和有效的方法。 透過要求對所有存取嘗試進行驗證和授權,組織可以確保只有獲得授權的使用者和裝置才能存取敏感資料和系統。
此外,零信任安全性可以為遠端工作者提供額外的安全措施,他們可能會從不受信任的位置或裝置存取敏感資料和系統。 透過使用零信任安全性,組織可以實施存取控制並即時監控活動,從而降低資料外洩或其他安全事件的風險。
總體而言,零信任安全性可以提供更安全的方法來管理敏感資料和系統的存取。 透過防止對特權帳戶的攻擊,並保護遠端存取、BYOD 政策和 cloud基於環境的安全,組織可以確保其資料和系統免受潛在威脅的侵害。
零信任以外的防護措施
以資安而言,零信任資安仍舊是重要的運作機制,但也因其他技術的聯合發展,同步加深了資安的管理複雜程度。下列幾點是除了資訊安全的防護外,也可同步運用人工智慧及其他區域技術的重要防護措施:
1.入侵檢測系統強化:運用AI人工智慧技術進行檢測,判斷可能的入侵行為,如異常流量、異常路徑與活動等。
2.預測與預防:藉由AI人工智慧的機器學習分析以往的攻擊行為模式,並預判未來可能的攻擊行動。
3.身分驗證加強:除了零信任基礎外,運用AI人工智慧技術檢測身分驗證行為,如面部辨識、聲音辨識等。
4.加強數據安全:AI人工智慧的基數運用在加密和保護數據,設下權限,禁止未經授權的訪問與使用。
5.加強物聯網安全:AI人工智慧技術用在監控並保護物聯網設備,分析解決安全事件,嚴禁未授權的控制。
備註補充
成員推論攻擊
(Membership Inference Attack)
攻擊原理
- 模型行為分析:機器學習模型對訓練數據和非訓練數據的反應通常會有所不同。攻擊者利用這種差異來推測數據樣本是否屬於訓練集。
- 輸出概率分佈:針對一個給定的輸入,模型的輸出通常是一個概率分佈。訓練過的樣本可能會得到更高的置信度(更確定的預測),而未訓練過的樣本通常置信度較低。攻擊者可以訓練一個影子模型來模擬目標模型的行為,並使用這些概率分佈來推測成員資格。
攻擊步驟
- 訓練影子模型:攻擊者收集與目標模型相似的數據來訓練一個或多個影子模型。
- 生成查詢數據:利用影子模型生成一組查詢數據及其對應的輸出。
- 訓練推論模型:基於影子模型的輸出,訓練一個推論模型來區分訓練數據和非訓練數據。
- 進行推論:將目標數據樣本輸入目標模型,並將得到的輸出送入推論模型,判斷該樣本是否在訓練集中。
屬性推論攻擊(Attribute Inference Attack)
定義: 屬性推論攻擊是指攻擊者試圖從機器學習模型的輸出中推測出訓練數據中某些未被明確公開的屬性。這種攻擊可以揭示出用戶數據的隱私屬性,對個人隱私構成威脅。攻擊原理
- 模型輸出利用:攻擊者利用模型對給定輸入的輸出來推測某些隱藏屬性。這些輸出可能包含隱含的模式,反映出訓練數據中的某些特徵。
- 輔助信息結合:攻擊者可能結合一些輔助信息(如公共數據庫、社交網絡信息等),來提高屬性推測的準確性。
攻擊步驟
- 獲取部分數據:攻擊者需要擁有部分目標數據集的記錄,這些記錄中包含已知和未知屬性。
- 訓練推測模型:利用已知的數據記錄及其對應的模型輸出,訓練一個推測模型來預測未知屬性。
- 進行推測:將目標樣本輸入目標模型,獲取其輸出,並使用訓練好的推測模型來推測未知屬性。
兩種攻擊的區別
攻擊目標
- 成員推論攻擊:目的是判斷某個樣本是否在訓練集中。
- 屬性推論攻擊:目的是推測某個樣本的隱藏屬性。
所需信息
- 成員推論攻擊:主要依賴模型輸出的概率分佈及其在不同樣本上的變化。
- 屬性推論攻擊:需要部分數據記錄及其對應的模型輸出來訓練推測模型。
應用場景
- 成員推論攻擊:常見於需要保護數據集成員隱私的應用,如醫療數據、金融數據等。
- 屬性推論攻擊:常見於攻擊者試圖從公開數據中挖掘更多隱私信息的情況,如社交網絡數據分析等。
這兩種攻擊都揭示了機器學習模型在隱私保護方面的潛在風險,強調了在開發和部署機器學習模型時必須考慮隱私保護措施的重要性。
資料來源
Verena Cooper,2023-12-06 ,AI 安全風險以及零信任如何改變 (splashtop.com)
沙珮琦,2023-06-09,科技魅癮|「聰明」的 AI 反而危險多多?談談 AI 面臨的資安挑戰 (nat.gov.tw)
吳欣珊,2023-05-09,就享知 | 就想知道的數位知識 (digiknow.com.tw)