Photo by Levart_Photographer on Unsplash
OpenAI近期停用了其AI文本分類器,該工具旨在識別AI生成的文本,但因準確度問題而受到批評。OpenAI在其部落格文章中更新,宣布自2023年7月20日起,該AI分類器已不再提供使用。OpenAI表示,他們正在努力吸納反饋,並正在研究更有效的文本來源技術,並承諾開發和部署讓使用者能夠理解音頻或視頻內容是否由AI生成的機制。
該分類器於2023年3月推出,是OpenAI努力開發AI分類器工具的一部分,該工具有助於人們理解音頻或視頻內容是否由AI生成。該工具旨在通過分析語言特徵並分配“概率評級”來檢測文本段落是由人類還是AI寫作的。該工具曾經受到歡迎,但最終由於其在區分人類和機器寫作方面的不足而被停用。
OpenAI的文本分類器的突然停用,突顯出開發可靠AI檢測系統的持續挑戰。研究人員警告說,如果不負責任地部署,不準確的結果可能導致意想不到的後果。研究人員發現,這些工具經常將人類寫作的文本錯誤地標記為AI生成,尤其是對於非英語為母語的人來說。他們強調,AI的持續進步將需要檢測方法的平行進步,以確保公平性、問責性和透明度。然而,批評者說,生成AI的發展速度迅速超過了檢測工具,使得更容易逃避。
專家們警告不要過度依賴當前的分類器進行高風險的決策,如學術抄襲檢測。依賴不準確的AI檢測系統可能會產生以下潛在後果:
- 如果系統錯誤地將他們的原創作品標記為AI生成,可能會不公平地指控人類作家抄襲或作弊。
- 如果系統未能正確識別非人類文本,可能會讓抄襲或AI生成的內容未被檢測到。
- 如果AI更有可能將某些群體的寫作風格錯誤地分類為非人類,可能會加強偏見。
- 如果一個有缺陷的系統未能檢測到偽造或操縱的內容,可能會傳播錯誤訊息。
隨著AI生成的內容變得越來越普遍,繼續改進分類系統以建立信任變得至關重要。OpenAI表示,他們仍致力於開發更強大的技術來識別AI內容。然而,他們的分類器的快速失敗證明,完善這種技術需要取得重大進展。