近日,多位軟件工程師、開發人員及學術研究人員對OpenAI的語音轉寫工具Whisper提出了嚴重質疑,指出其存在憑空生成虛假內容的問題。這些虛假內容可能包含種族言論、暴力措辭,甚至虛假的醫療建議,被業內稱為“AI幻覺”。
據報道,盡管OpenAI已提醒用戶避免在高風險領域使用Whisper,但該工具仍被廣泛應用于多個行業,包括醫療機構。這引發了對于其潛在風險的擔憂。
研究人員和工程師在工作中頻繁遇到Whisper的“幻覺”現象。例如,密歇根大學的一位研究員在研究過程中發現,他所檢查的音頻轉錄中,大部分含有虛構內容。
另一項研究表明,在審查的13000多段清晰音頻片段中,有187段出現了“幻覺”現象。研究人員認為,這意味著在數百萬條錄音中,可能出現數以萬計的錯誤轉錄。
OpenAI的發言人表示,公司正在持續研究如何減少“幻覺”現象,并感謝研究者的反饋,將在未來的模型更新中采納這些意見。