近期,深度偽造技術(deepfake)的飛速發展引發了公眾對虛假信息、詐騙及身份盜用的廣泛憂慮。一項最新研究成果揭示了一個令人擔憂的現象:大眾對于AI工具的辨識能力普遍較低,難以有效區分深度偽造的內容。
iProov公司的一項研究揭示了這一嚴峻現實。該研究在英國和美國招募了2000名參與者,向他們展示了一系列真實與AI生成的圖像和視頻。結果驚人:僅有兩名參與者,即0.1%的比例,能夠準確無誤地區分真實內容與深度偽造內容。
研究進一步指出,老年群體在面對人工智能生成的虛假內容時尤為脆弱。在55至64歲的人群中,約30%的人從未聽說過深度偽造;而在65歲以上的群體中,這一比例更是高達39%。盡管年輕參與者對自己的辨識能力更為自信,但在實際測試中,他們的表現并未優于其他年齡段。
值得注意的是,深度偽造視頻相較于圖像更難被識別。參與者識別假視頻的可能性比識別假圖像低了36個百分點。
更令人擔憂的是,即便人們懷疑某個內容是深度偽造,大多數人也不會采取任何行動。僅有20%的受訪者表示,若在網上遇到疑似深度偽造內容,他們會選擇舉報。
隨著深度偽造技術日益精進,iProov公司強調,僅憑人類感知已難以可靠識別這類內容。因此,需要采用具備活體檢測功能的生物識別安全解決方案,以應對愈發逼真的深度偽造威脅。