近期,《消費者報告》雜志披露了一項令人擔憂的研究結果,揭示了市場上多款熱門語音克隆應用的安全防護機制存在嚴重缺陷,未能有效防范欺詐和濫用行為。
據悉,該雜志的研究團隊深入調查了六家公司的語音克隆產品,這些公司分別為De、ElevenLabs、Lovo、PlayHT、Resemble AI以及Speechify。研究的核心在于評估這些產品是否具備阻止惡意用戶非法克隆他人聲音的有效手段。然而,調查結果顯示,僅有De和Resemble AI兩家公司采取了相應的防護措施,以防止技術被濫用。
具體而言,除了De和Resemble AI之外,其他幾家公司僅要求用戶進行簡單的自我聲明,確認自己擁有克隆聲音的合法權利。這種簡單的確認流程顯然不足以遏制潛在的濫用風險。研究團隊指出,這樣的安全漏洞可能為冒名頂替詐騙等不法行為提供可乘之機。
針對這一現狀,《消費者報告》的政策分析師格蕾絲?蓋迪表達了她的擔憂。她強調,如果企業不加強安全措施,AI語音克隆技術將可能極大地增加冒名頂替詐騙的風險。蓋迪在聲明中指出:“我們的評估表明,通過采取一些基本措施,企業可以顯著增加未經授權克隆他人聲音的難度。然而,遺憾的是,并非所有公司都意識到了這一點,并采取了相應的行動。”
這一研究結果引發了公眾對語音克隆技術安全性的廣泛關注。隨著技術的不斷發展,如何在享受技術便利的同時,確保個人隱私和信息安全,成為了亟待解決的問題。對于企業和開發者而言,加強安全防護機制,防范技術濫用,不僅是對用戶負責,也是對社會負責。