近日,英國權威媒體《衛報》發布了一項引人關注的報道,指出OpenAI公司旗下的ChatGPT搜索工具存在潛在的安全隱患。據稱,該搜索工具在處理包含隱藏內容的網頁時,其返回的結果可能會被操縱,甚至可能包含惡意代碼。
為了驗證這一觀點,《衛報》對ChatGPT搜索工具進行了針對性的測試。測試中,他們特別關注那些包含隱藏內容的網頁,這些隱藏內容可能包含來自第三方的指令,這些指令能夠更改ChatGPT的響應,也被稱為“提示注入”。這些隱藏內容還可能包含大量虛假好評,從而影響ChatGPT生成的結果。
測試結果顯示,ChatGPT搜索工具確實存在被惡意利用的風險。即便網頁上存在負面評論,ChatGPT的搜索結果仍可能被操縱為積極的正面評估。更令人擔憂的是,安全研究人員還發現,ChatGPT能夠從其搜索的網站返回惡意代碼,甚至出現了含有釣魚惡意行為的虛假網站。
對于這一發現,網絡安全專家表達了不同的看法。CyberCX的網絡安全研究員Jacob Larsen認為,隨著ChatGPT搜索系統的發布,人們創建專門用于欺騙用戶的網站的風險顯著增加。幸運的是,該功能目前仍處于測試階段,OpenAI團隊正在積極應對并努力解決這些問題。
然而,安全公司SR Labs的首席科學家Karsten Nohl則持更為謹慎的態度。他建議將AI聊天服務視為一種“輔助功能”,并強調用戶不應完全信任其未經過濾的輸出內容。Nohl將AI搜索面臨的問題比作“SEO中毒”,即黑客利用技術手段操縱網站在搜索結果中的排名,并在網站中植入惡意軟件或代碼。他認為,ChatGPT的搜索功能同樣面臨著類似的挑戰。
Nohl還指出,由于AI技術的復雜性和不可預測性,用戶在使用ChatGPT等AI聊天服務時,應保持警惕,避免泄露敏感信息或做出輕率的決策。他呼吁OpenAI等AI技術提供商加強安全防范措施,確保用戶數據的安全和隱私。
隨著AI技術的不斷發展和普及,其安全性和可靠性問題也日益凸顯。對于OpenAI等AI技術提供商而言,如何在追求技術創新的同時,確保用戶數據的安全和隱私,將是一個長期而艱巨的任務。