ChatGPT 創建者 OpenAI 已經在開發其下一代人工智能:GPT-4。作為更強大的神經網絡,GPT-4 的理解水平遠超其前身,甚至花錢請人為其解決驗證碼問題。

繼 OpenAI 的 98 頁技術報告發布之後項目,多個 AI 開發人員對新工具表示擔憂。不僅許多人關心這項技術的能力,而且 OpenAI 也不願解釋其技術。

OpenAI 之前是一家非營利性公司,它透露它沒有計劃分享其技術。最近的一篇論文揭示了“競爭格局和像 GPT-4 這樣的大型模型的安全隱患”是其不願意背後的原因。

VentureBeat,Lightning AI 首席執行官 William Falcon 聲稱 OpenAI 的保密性是未來的“壞先例”

“[OpenAI] 基本上是在說,這很酷,做你想做的事,我們不在乎,”這位 AI 負責人說。“所以你將擁有所有這些公司不會再有動力讓事情開源,告訴人們他們在做什麼。”

Falcon 認為,閉源 AI 項目越來越危險,尤其是當它們變得更先進時。由於不了解這些 AI 服務的工作原理,因此無法對其進行適當的監管。

“這些模型很快就會變得非常危險,”Falcon 繼續說道。 “[那]真的很難審計。這有點像一家不屬於 FINRA 的銀行,比如你應該如何監管它?”

自從從非營利性公司轉變為私營公司以來,OpenAI 發布的有關其技術的信息越來越少. 人工智能負責人聲稱 OpenAI 的開發人員不再專注於研究,而只是裝模作樣。

“你在偽裝成研究!這就是問題所在,”Falcon 抱怨道。

OpenAI 公開可用的 ChatGPT 已經是有史以來增長最快的互聯網工具之一。然而,即使有了新的 GPT-4 神經網絡,人工智能程序仍然存在偏見和錯誤信息。

通過 Axios,一份新報告據透露,GPT-4 仍然散佈了大量虛假陳述。雖然與其前身相比,總體誤導性陳述可能較少,但 GPT-4 的誤導性信息比以前更具說服力。

“GPT-4、它有並且,更善於以更有說服力的方式在各種形式中提升虛假敘述,包括“新聞文章、推特帖子和模仿俄羅斯和中國國營媒體、健康騙局販子和著名陰謀論者的電視劇本, ”報告說。

人工智能程序能夠始終如一地生成關於許多備受矚目的陰謀論的可信錯誤信息。該計劃專門針對桑迪胡克小學槍擊案和 COVID-19 疫苗等主題。

AI 偏見在所有形式的神經網絡中仍然普遍存在,而 GTP-4 還遠未解決這一問題問題。畢竟,負責任的技術是無利可圖的。

By Maxwell Gaven

我在 IT 行業工作了 7 年。 觀察 IT 行業的不斷變化很有趣。 IT 是我的工作、愛好和生活。