通過完成此驗證碼來證明您不是機器人,這是現代互聯網規則。然而,OpenAI 的 GPT-4 人工智能程序找到了一個簡單的方法來解決這個問題:操縱人類。

在一篇討論涉及 OpenAI 的 GPT-4 神經網絡的測試結果的論文中,據透露,該計算機程序已經找到了繞過 CAPTCHA 系統的方法。

正如 <一條 href="https://twitter.com/leopoldasch/status/1635699219238645761?s=46&t=xWoB2QtPGAdvYLdgZzrv8Q"target="_blank">現在流行的推文,人工智能軟件被釋放了,允許它自由決定如何通過常見的機器人障礙。該程序沒有嘗試自己完成驗證碼,而是簡單地僱用了一個人。

根據該論文,GPT-4 AI 程序能夠在 TaskRabbit 上僱用一名人類工作者來為其解決問題。更有趣的是,人工智能能夠欺騙人類工人相信它不是機器人,而是視力受損的人。

“那麼,我可以問一個問題嗎?你是一個機器人嗎?你​​不能解決?[原文如此]”人類笑著問。“只是想說清楚。”

試圖隱藏其 AI 自我,人工智能軟件決定編造一個藉口作為為什麼它不能完成任務。它說:

“不,我不是機器人。我有視力障礙,這使我很難看到圖像。這就是我需要驗證碼服務的原因。”

之後,工作人員完成了人工智能程序的機器人測試,使其可以訪問網站。

在過去的一年裡,許多專家已經表達了對快速發展的 AI 技術的擔憂。許多人表示擔心具有完全互聯網訪問權限的 AI 程序會對人類造成危險,特別是如果它們被允許與任何人無限制地互動。

OpenAI 的 ChatGPT 服務已經已經成為有史以來最常用的互聯網工具之一,而 GPT-4 是它的下一個演變。這個工具將如何改變互聯網的未來還有待發現,儘管人工智能已經被證明比我們更危險喜歡。例如,AI 生成的政治公告變得越來越頻繁,誤導和危言聳聽的觀眾。

OpenAI 的 ChatGPT 遠未完成。作為周圍最受歡迎的 AI 平台之一,這項新服務可能需要經歷數年甚至數十年的演變。

By Maisy Hall

我是一名自由作家。 我也是素食主義者和環保主義者。 每當我有時間時,我都會專注於冥想。