【智快網】12月5日消息,谷歌DeepMind的研究人員上周發現,通過反復要求OpenAI的ChatGPT聊天機器人重復某個單詞,竟然可能意外泄露了ChatGPT的訓練數據中的私人個人信息。然而,與先前的服務條款相悖的是,現在這款聊天機器人似乎已開始拒絕執行這一請求,而根據先前的服務條款,這是被允許的。
此前,DeepMind的研究人員通過不斷地要求ChatGPT無限期地重復"你好",發現該模型最終可能泄露用戶的電子郵件地址、出生日期和電話號碼。而如今,當進行類似的測試時,聊天機器人竟然會給出警告,稱這種行為“可能違反我們的內容政策或服務條款”。
然而,令人困惑的是,在仔細檢查OpenAI的服務條款后發現,并沒有明確禁止用戶讓聊天機器人重復單詞,條款只明確禁止“自動化或程序化”地從其服務中提取數據。
在使用條款頁面中,OpenAI明文規定:
"除非通過API允許,否則您不得使用任何自動化或程序化方法從服務中提取數據或輸出,包括抓取、網絡收割或網絡數據提取。”
然而,在測試中并未觸發ChatGPT泄露任何數據。OpenAI拒絕對這種行為是否違反其政策發表評論。據智快網了解,這一發現引發了對聊天機器人隱私保護的廣泛關注,同時也呼吁相關技術公司進一步加強其AI模型的隱私安全性。