週三是英國大部分地區教師罷工的一天,這讓家長們扮演了熟悉的流行病啟發角色,即在家教育孩子。除了這一次,有一個神奇的自動化助手隨時可以提供幫助。
教育工作者一直謹慎地稱讚來自 OpenAI 的超複雜聊天機器人 ChatGPT,稱它可以徹底改變教育。英國的一位校長表示,它引發了人們對家庭作業的重新思考,而俄勒岡州的另一位校長則用它來製定課程計劃和學習指南。
該工具的個性化響應使其如此誘人——認識數字導師。我最近用它來深入研究酶的主題,當時我 12 歲的孩子提出了我無法回答的問題。當 ChatGPT 提供密集的技術解釋時,我要求它提供更簡單的術語和類比。
“當然可以!”它回答說。 “想想門上的鎖。鎖就像一種酶,鑰匙就像底物分子……”它進一步擴展了類比,將酶的活性位點描述為鑰匙孔。
這些都是非凡的答案。如果我們願意的話,我們本可以更深入地研究生物化學的各個方面。與人類導師不同,ChatGPT 可以隨心所欲地詢問。
這具有個性化、獨立學習的巨大潛力……除了 ChatGPT 經常出錯,而且它做得很好隱藏那個。當我在該工具上測試我女兒的一個英語家庭作業問題時,它提供了一份雄辯的示例列表,仔細檢查後發現其中有一個非常不准確。機器人說,儘管主角的父母在整本書中都去世了,但主角與他的父母的關係並不好。
還有一次,我用這個工具為我的女兒生成了一些線性方程式實踐。當我要求該工俱生成與她計算出的答案不同的答案時,她被難住了。我向 ChatGPT 尋求解釋,它再次簡單地分解了它的方法,聽起來像任何真正的數學導師一樣權威。但是當我在谷歌上仔細檢查答案時,發現 ChatGPT 的答案是錯誤的,而我的 tween 是正確的。就這樣結束了她數學不及格的迷你噩夢,也結束了我最初對 ChatGPT 的大部分熱情。
美國最大的紐約市公立學校系統已經禁止其學生使用 ChatGPT,在部分原因是擔心“內容的準確性”。這就是為什麼最近將 ChatGPT 與“寫作計算器”進行比較是一個具有欺騙性的類比,因為計算器總是正確的,而 ChatGPT 則不然。
它有多不准確? OpenAI 的一位女發言人表示,該公司在過去幾個月中更新了 ChatGPT 以提高其事實準確性,但沒有可分享的統計數據。該工具還會警告用戶,當他們第一次打開它時,它有時會出錯。
它會變得更準確嗎?是的,但很難說有多少。支撐 ChatGPT 的大型語言模型由 1750 億個參數組成,這些參數是用於進行模型預測的設置,而其前身 GPT-2 則有 15 億個參數。 AI 中公認的智慧是,向模型添加的參數越多,模型就越真實,並且 GPT 的相關性是真實的。添加所有這些參數後,它變得更加準確。有傳言稱,定於今年發布的下一個迭代版本,稱為 GPT-4,將有數万億。
問題是,我們不知道參數的巨大跳躍是否也意味著可信度的巨大跳躍.這就是為什麼學生在可預見的未來應該謹慎使用 ChatGPT(如果有的話)。
當我問倫敦大學學院計算機科學名譽教授 Julien Cornebise,他是否會相信它是作業工具,他回答說:“絕對沒有,還沒有。”他指出,即使系統有所改進,我們仍然無法保證其真實性。
學生應該習慣於通過系統與其他在線信息或專家來證實任何事實。 Albert Meige 是諮詢公司 Arthur D. Little 專注於技術的副總監,他說他十幾歲的女兒用它來幫助她完成物理作業——但由於他的計算物理學博士學位,他可以驗證答案。他建議使用聊天機器人來幫助更好地理解家庭作業中提出的問題。 “她發現她不應該問一個問題,”他說。 “這是一個互動過程。”
用它來獲得反饋,Cornebise 表示贊同。 “這就是明星學生會做的事情。”
作為一家相對較小的公司,OpenAI 可以逃脫說出奇怪的替代事實。 Alphabet Inc. 旗下的 Google 和 Meta Platforms Inc. 無法做到這一點。谷歌擁有自己的名為 LaMDA 的高度複雜的語言模型,但對於將類似的聊天機器人集成到自己的搜索工具中非常謹慎,部分原因可能是準確性問題。在發布名為 Galactica 的可以生成科學論文的 AI 工具三天后,Meta 在學者們批評它生成不可信的信息後將其撤下。
OpenAI 將遵循與生成式 AI 武器類似的高標準競賽升溫,聊天機器人技術被整合到美國和中國的搜索引擎中。
到那時,請謹慎使用它並保持適當的懷疑態度,尤其是在教育領域。
© 2023 Bloomberg LP
附屬鏈接可能會自動生成-有關詳細信息,請參閱我們的道德聲明。