當地時間 27 日,據美聯社報道,超過十位軟件工程師、開發(fā)人員和學術研究人員稱,OpenAI 的語音轉寫工具 Whisper 存在一個重大缺陷:有時會憑空生成大段甚至整句虛假內容。
這些專家指出,這些生成的文本(IT之家注:業(yè)內通常稱為“AI 幻覺”)可能涉及種族言論、暴力措辭,甚至杜撰的醫(yī)療建議。
專家們認為,這一問題尤其令人擔憂,因為 Whisper 已被廣泛應用于全球多個行業(yè),包括用于翻譯和轉錄訪談內容、生成常見消費科技文本及制作視頻字幕。
更具風險的是,盡管 OpenAI已提醒不應在“高風險領域”使用該工具,但一些醫(yī)療機構仍在匆忙采用基于 Whisper 的工具來記錄醫(yī)生與患者的咨詢記錄。
報道稱,研究人員和工程師在工作中經常遇到 Whisper 的“幻覺”現象,問題的整體規(guī)模尚不清楚。例如,密歇根大學一位研究員在研究公共會議時發(fā)現,在嘗試改進模型前,他所檢查的十份音頻轉錄中,八份含有虛構內容。
一位機器學習工程師透露,在最初分析的超過 100 小時 Whisper 轉錄中,他發(fā)現大約一半的內容存在“幻覺”現象。一位開發(fā)人員進一步指出,在他用 Whisper 生成的 26000 份轉錄中,幾乎每一份都帶有虛構內容。
即便是音質良好的簡短音頻樣本,也未能幸免于這些問題。計算機科學家們的最新研究表明,他們審查的 13000 多段清晰音頻片段中,有 187 段出現了“幻覺”現象。
研究人員認為,這一趨勢意味著,在數百萬條錄音中將可能出現數以萬計的錯誤轉錄。
OpenAI 的發(fā)言人表示,該公司持續(xù)研究如何減少幻覺,并且感謝研究者的發(fā)現,將會在模型更新中采納反饋。