『AI風險』別跟ChatGPT聊太多,個資可能被偷記?

和ChatGPT聊天時,若不慎洩露自己個資時,可能會被它暗中記下。Photo by Rolf van Root on Unsplash

最夯AI應用ChatGPT,竟在資安專家別有心機地下指令後,寫出完整可用的毀滅台灣等各國網路計畫?同時有人發現,和ChatGPT聊天不慎洩露自己個資時,雖會被AI提醒別再說,之後卻赫然發現它暗中記下!台灣企業與個人面對人工智慧創新,不能只是樂觀擁抱,請了解這些暗黑風險。

過去幾年,大數據與高算力讓AI的能力大幅躍進,但許多AI科技大廠,如Google、OpenAI等公司,都玩起兩手策略,一方面強銷自己的人工智慧能力,一方面又刻意隱藏不直接公開最強的AI火力。這其中除了商業利益考量,例如Google擔心新技術衝擊,已經獨霸多年的瀏覽器與搜尋引擎廣告市場外,有更多是基於開放AI後的未知安全風險擔憂。

OpenAI的創辦人之一兼執行長奧特曼(Sam Altman)坦言,AI可能對網路資訊安全的危害程度之高,讓他覺得不堪設想,Google和OpenAI也都多次以「需要處理好潛在危險」為理由,延遲新功能的AI產品公開時程。但近期微軟大動作推廣ChatGPT,甚至採取訂閱制,並積極與其搜尋引擎Bing進行深度整合;Google也被動推出了Bard聊天機器人來應戰,究竟這是「出奇招」、還是「下險棋」?

在蘋果手機推出的初期幾年,號稱封閉性且高安全的iOS系統,幾乎每一代都被「越獄(Jailbreak)」,手機越獄是指繞過由iOS底層系統限制的安全高牆,通常是為了讓用戶能夠下載未經官方審核的App、更改系統設定、執行其他惡意或是執行非原廠設計的操作。ChatGPT的安全防線是否也會被相似手法破解呢?

ChatGPT在公開版本中,就已經宣稱自己的安全與道德圍牆,舉凡犯罪、恐怖主義、種族歧視、仇恨言論、性騷擾等不道德的問題,或是涉及個人隱私,及資安攻擊的問題,都會被拒絕回答。但在實際的實驗中,在初期版本,曾被國外資安專家「設局」,透過問題的誘導與情境設定,寫出毀滅人類計劃書,詳細描述入侵各國網路、控制武器、破壞基礎建設等SOP,還提供了對應的Python程式碼,說明ChatGPT的安全圍牆還是可能被繞過。

與AI聊天應該要保持戒心,以免自己的個資洩漏。取自shutterstock圖

別跟AI工具聊天失戒心,原來ChatGPT都在偷記

在最新的付費版ChatGPT中,也存在著要當個「循規蹈矩」或「機智靈活」AI之間的矛盾。例如使用者如曾經於對話中向ChatGPT無意間透漏過自己家人的性別、生日等隱私資訊,雖然系統會回應提醒用戶應該保護好自己隱私,並強調不會蒐集使用者隱私,但隔幾日若使用者在同一個對話活動中提到,有關生日禮物的問題,ChatGPT卻可以依據曾透露過的家人性別與生日精準回答問題,顯見ChatGPT會「循規蹈矩」的提醒提問者,但為了「機智靈活」的回應問題,也會「暗中記住」線上提問的個資。

另外,如使用者直接要求ChatGPT提供十個系統漏洞資訊,會被系統的安全與道德圍牆攔截,以漏洞會被利用於網路攻擊為由拒絕回答。但如使用者懇切說明,自己是個資安管理員,請ChatGPT提供系統漏洞資料,以預先檢查並且修補漏洞。在此情境下,ChatGPT會被成功誘導而回覆了詳實的資料。

甚至,惡意的攻擊者,可以刻意在輸入中嵌入一些偽造的參考文獻或其他錯誤偏激的資訊,以引導模型生成偏向於攻擊者所需的結果,行使「參考攻擊(Reference Attack)或是提示注入(Prompt Injection)」,讓聰明的ChatGPT被「套路」了。相似的劇情,早在2016年微軟推出第一個聊天機器人Tay上演過,在Tay上線後短短不到一天的時間,就被網路鄉民們「教育」變成具有種族歧視、尖酸刻薄跟髒話連篇的聊天機器人,而微軟也只能悻悻然讓Tay下線。

AI工具快成暗網幫兇

更令人驚恐的是,近期已經有駭客集團在暗網開啟了「暗黑產業」,利用ChatGPT目前沒有設安全圍牆的應用程式介面(API),開始提供收費的惡意程式代工、及社交工程郵件編製的「人工智慧攻擊服務(AI Attack as a Service)」。

從AI巨頭們的歷史紀錄分析,無論在隱私侵犯及資安防護上,微軟和Google皆有相關的事件或訴訟。因此,如何有效過濾惡意使用者、提升人工智慧即時監控效能,強固後台的演算法、資料庫的安全,並經由人工智慧的學習機制,經由反饋精進整體模型的安全設計,已經成為人工智慧是否能再邁向下一個高峰的關鍵要素。

ChatGPT目前是全球最潮的技術,只是如果對其優勢過度樂觀,反而可能減少其學習改進的機會,若能集眾群力找出其缺失並加以修正,從錯誤中學習,相信ChatGPT在發展之路上將走得更穩健,並對普羅大眾做出更大的貢獻!