Es geht nicht mehr nur um Worte
OpenAI stellte GPT-4 vor, ein Modell der nächsten Generation, das die technische Grundlage für ChatGPT und Bing AI-Chatbots von Microsoft bildet. Es ist ein wichtiges Upgrade, das den Weg zu großen Fortschritten in den Fähigkeiten und Merkmalen der KI ebnet und einen weiteren Schritt in Richtung Vergessenheit der Geisteswissenschaften macht.
OpenAI kündigte das neue GPT-4-Upgrade in seinem Blog an und Sie können es bereits ausprobieren auf ChatGPT. (Es ist auf 100 Nachrichten alle vier Stunden begrenzt) Microsoft hat bestätigt, dass die neueste Version seines Chat-Tools Bing GPT-4 verwendet.
Es gibt mehrere wichtige Upgrades in GPT-4-Angeboten, beginnend mit dem größten, und es geht nicht nur um Worte.
Laut OpenAI kann GPT-4 Akzeptieren Sie Bilder als Eingabe und generieren Sie Labels, Klassifizierungen und Analysen. ChatGPT und Bing können die Welt um sie herum”sehen”oder zumindest visuelle Ergebnisse interpretieren.
Das bedeutet, dass es wie die App wie Be My Eyes funktionieren kann, ein Tool für Menschen mit Sehbehinderungen. Be My Eyes verwendet die Kamera eines Smartphones und erklärt visuell, was es sieht.
In einem GPT-4-Video, das sich an Entwickler richtete, zeigte Greg Brockman, Präsident und Mitbegründer von OpenAI, wie GPT-4 eine Skizze interpretiert , wandelt es in eine Website um und stellt dann den Code für diese Website bereit.
GPT-4 kann mehr als 25.000 Textwörter verarbeiten und ermöglicht so Anwendungsfälle wie die Erstellung langer Inhalte, ausgedehnte Konversationen und Dokumentensuche und Analyse.
OpenAI sagte.”Es kann kreative und technische Schreibaufgaben mit Benutzern erstellen, bearbeiten und wiederholen, wie das Komponieren von Songs, das Schreiben von Drehbüchern oder das Erlernen des Schreibstils eines Benutzers.”
Große Sprachmodelle haben nicht von Natur aus Intelligenz. Das GPT-4-Modell soll Zusammenhänge und Zusammenhänge noch besser verstehen. Beispielsweise hat ChatGPT bei einer einheitlichen Anwaltsprüfung im 10. Perzentil gepunktet. GPT-4 punktete im 90. Perzentil. Bei der sogenannten Biologie-Olympiade erzielte visionsbasiertes GPT-4 im 99. Perzentil, während ChatGPT im 31. Perzentil punktete.