剛剛,ChatGPT再爆安全漏洞!大量私密對話被泄露

2024年2月6日 19点热度 0人点赞

ChatGPT 又一次陷入了安全漏洞風波。

國外一位用戶在使用ChatGPT時表示,他原本隻是進行一個無關的查詢,卻意外發現在和ChatGPT的聊天記錄中出現了不屬於自己的對話內容。

對話泄露了很多非用戶本人的信息,其中包含了大量敏感內容。

如下圖泄露了一名陌生用戶正在利用ChatGPT排除故障的應用程序的名稱以及發生問題的具體的商店編號。

泄露的信息甚至包含了能夠鏈接該陌生用戶應用系統的用戶名和密碼:

另外泄露的其他對話還包括某人正在制作的ppt:

還泄露了未發表的研究論文計劃的詳細信息:

以及使用 PHP 編程語言的腳本:

甚至這名用戶在咨詢ChatGPT幫忙制作簡歷時的個人經歷:

對於此事,OpenAI 解釋這可能是因為該用戶的賬戶被他人在異地登錄使用,但該用戶表明自己的密碼挺復雜,且隻有自己在用,他懷疑自己的帳戶已被盜用。

其實早在23年11月,國外一名研究人員發表論文報告了他們如何使用查詢促使 ChatGPT 泄露電子郵件地址、電話和傳真號碼、實際地址以及用於訓練 ChatGPT 大語言模型的材料中包含的其他私人數據。

由於擔心專有或私人數據泄露的可能性,包括蘋果在內的公司限制其員工使用 ChatGPT 和類似網站。

不要把裸照發給ChatGPT

同樣是23年11月,一位用戶在向 ChatGPT 詢問 Python 中的代碼格式化包 black 的用法時,沒有一點點防備,ChatGPT 在回答中插入了一個陌生男子的自拍照,打了用戶一個措手不及。

隨機有網友展開追溯,證實這張自拍於2016年12月7日被上傳到圖片分享平臺 Imgur,證明這張自拍不是 ChatGPT 胡編亂造自己生成的,而是其他用戶真實的”自拍“,同時,這另一方面也表明 Imgur 必然是 ChatGPT 的訓練數據集之一。

一網友也表示:“這件事給我們的教訓就是,凡是你上傳到網上的都有可能變成訓練數據……”

所以,使用ChatGPT的用戶請當心!

ChatGPT 對於聊天記錄的使用非常清楚,大多數情況下,你上傳或所說的所有內容都將用於重新訓練 ChatGPT, 除非你關閉聊天記錄!

最後更是有網友後悔自己上傳了“裸照”:

所以說傢人們,和ChatGPT聊天要謹慎啊,尤其要註意不要把裸照發給ChatGPT !

One More Thing:ChatGPT@功能全量上線

OpenAI在推特上官宣,ChatGPT的@功能全量上線啦!

隻需一個@就能召喚任意GPTs為你打工!

二狗我找朋友確認了下,果然,隻要你在輸入框輸入一個 “@”,就能選擇GPT.

蕪湖,大傢趕緊試玩起來吧~