人工智能 (AI) 的日益複雜和可及性引發了人們對其對社會影響的長期擔憂。最新一代的聊天機器人加劇了這些擔憂,人們擔心就業市場的完整性以及假新聞和錯誤信息的傳播。鑑於這些擔憂,賓夕法尼亞大學工程與應用科學學院的一組研究人員試圖幫助技術用戶降低這些風險。

訓練自己識別 AI 文本

他們的同行評審論文 在人工智能促進協會 2023 年 2 月的會議上提出,提供了證據表明人們可以學會辨別機器生成的文本和人類編寫的文本之間的差異。

這項研究導致由計算機與信息科學系 (CIS) 副教授 Chris Callison-Burch 和博士共同撰寫。 Liam Dugan 和 Daphne Ippolito 的學生證明了人工智能生成的文本是可檢測的。

“我們已經證明,人們可以訓練自己識別機器生成的文本,”Callison-Burch 說。 “人們從一組關於機器會犯什麼樣的錯誤的假設開始,但這些假設不一定正確。隨著時間的推移,只要有足夠多的例子和明確的指導,我們就可以學會識別機器目前正在犯的錯誤類型。”

這項研究使用的數據是通過“真文本還是假文本?”收集的原創網絡訓練遊戲。這個訓練遊戲將檢測研究的標準實驗方法轉變為更準確地再現人們如何使用 AI 生成文本。

在標準方法中,參與者被要求以是或否的方式表明是否一台機器產生了給定的文本。 Penn 模型通過顯示所有以人類編寫的示例開始,將標準檢測研究改進為有效的訓練任務。然後每個示例都會轉換為生成的文本,要求參與者標記他們認為此轉換開始的位置。受訓者識別並描述指示錯誤的文本特徵並獲得分數。

研究結果

研究結果表明參與者得分顯著比隨機機會更好,提供證據表明人工智能創建的文本在某種程度上是可檢測的。該研究不僅為我們與 AI 的關係描繪了一個令人安心甚至令人興奮的未來,而且還提供了證據表明人們可以訓練自己來檢測機器生成的文本。

“人們出於正當理由對 AI 感到焦慮, ”Callison-Burch 說。 “我們的研究提供了減輕這些焦慮的證據。一旦我們能夠利用我們對 AI 文本生成器的樂觀態度,我們將能夠專注於這些工具的能力,以幫助我們編寫更有想像力、更有趣的文本。”

Dugan 補充道,“有令人興奮的積極因素您可以將這項技術推向的方向。人們關注令人擔憂的例子,例如剽竊和假新聞,但我們現在知道,我們可以訓練自己成為更好的讀者和作家。”

研究為減輕與機器生成文本相關的風險提供了關鍵的第一步。隨著人工智能的不斷發展,我們檢測和駕馭其影響的能力也必須如此。通過訓練自己識別人類編寫的文本和機器生成的文本之間的區別,我們可以利用 AI 的力量來支持我們的創作過程,同時降低其風險。

By Maxwell Gaven

我在 IT 行業工作了 7 年。 觀察 IT 行業的不斷變化很有趣。 IT 是我的工作、愛好和生活。