不再只是文字
OpenAI 推出了 GPT-4,這是為 ChatGPT 和 Microsoft 的 Bing AI 聊天機器人提供技術基礎的下一代模型.這是一次重大升級,為人工智能的能力和特性的重大進步開闢了道路,並進一步走向了人文遺忘。
OpenAI 在其博客上宣布了新的 GPT-4 升級,您已經可以嘗試了在 ChatGPT 上發布(限制為每四小時 100 條消息)微軟確認其最新版本的 Bing 聊天工具使用 GPT-4。
GPT-4 提供了幾個主要的升級,從最大的開始,它不僅僅是關於單詞。
根據 OpenAI,GPT-4 可以接受圖像作為輸入並生成標籤、分類和分析。 ChatGPT 和 Bing 可以“看到”周圍的世界,或者至少可以解釋視覺結果。
這意味著它可以像應用程序 Be My Eyes 一樣工作,這是一款為視力障礙人士提供的工具。 Be My Eyes 使用智能手機的攝像頭並直觀地解釋它所看到的內容。
在面向開發人員的 GPT-4 視頻中,OpenAI 總裁兼聯合創始人 Greg Brockman 展示了 GPT-4 如何解釋草圖,將其變成一個網站,然後提供該網站的代碼。
GPT-4 可以處理超過 25,000 個單詞的文本,支持長內容創建、擴展對話和文檔搜索等用例
OpenAI 說。 “它可以與用戶一起創建、編輯和重複創意和技術寫作任務,例如創作歌曲、編寫劇本或學習用戶的寫作風格。”
偉大的語言模型本身並不具備智能。 GPT-4 模型應該更好地理解關係和上下文。例如,ChatGPT 在統一的律師考試中得分為第 10 個百分位。 GPT-4 得分在第 90 個百分位。在所謂的生物奧林匹克競賽中,基於視覺的 GPT-4 得分在第 99 個百分位,而 ChatGPT 得分在第 31 個百分位。