Künstliche Intelligenz (KI) hat sich seit 70 Jahren schubweise weiterentwickelt. Es ist eine dieser Technologien, wie die kommerzielle Fusionskraft, die immer 20 Jahre entfernt ist. Jetzt stehen wir vielleicht tatsächlich an der Schwelle zu einer KI-Revolution. Aber es ist nicht das, was Sie erwarten.
Wir haben uns an maschinelles Lernen (ML) gewöhnt, bei dem ein neuronales Netzwerk mit einer großen Anzahl von Beispielen trainiert wird, bis es Elemente selbst erkennen kann. Google und Apple verwenden ML, um Objekte in Ihren Bildern zu identifizieren. Suchen Sie in Ihren Bildern nach „Berg“ oder „Hund“, und Ihr Telefon findet sie, nicht weil Sie Ihre Bilder markiert haben, sondern weil Fotos darauf trainiert wurde, Bilder zu erkennen, die diese Elemente enthalten. Text-zu-Bild-Systeme wie Stable Diffusion werden mit Millionen von Bildern trainiert und können ein Bild basierend auf einer Textbeschreibung generieren, wie „ein Pinguin beim Essen ein Donut an einem tropischen Strand.“ Obwohl nützlich und sicherlich zum Nachdenken anregend in Bezug auf die Ausbeutung und Kommentierung von Kreativität, betrachtet niemand dies als Erkenntnis auf menschlicher Ebene.
Bild von Stable Diffusion Playground
Auf der anderen Seite steht die künstliche allgemeine Intelligenz ( AGI) ist die Bezeichnung für ein vollständig empfindungsfähiges Computersystem mit mindestens menschlicher Intelligenz. Das ist der Stoff für Science-Fiction-Filme, von HAL in 2001: A Space Odyssey an die virtuelle Assistentin Samantha (gesprochen von Scarlett Johansson) in Ihr. Um es klar zu sagen: AGI existiert nicht, und noch weiß niemand, wie man ein AGI erstellt.
Lass uns plaudern
Aber etwas Neues und Bahnbrechendes wurde gerade ausgeliefert: ChatGPT. Es stammt von der Forschungs-und Entwicklungsfirma OpenAI, die seit Jahren daran arbeitet. ChatGPT ist derzeit kostenlos – Sie können ein Konto erstellen und mit ihm sprechen. Es basiert auf Version 3.5 des Deep-Learning-Systems GPT (Generative Pre-trained Transformer, froh, dass Sie gefragt haben?) , das mithilfe von KI Text erzeugt, der sich liest, als wäre er von einem Menschen geschrieben worden.
Die Technologie von OpenAI ist zwar komplex, basiert jedoch auf der einfachen Idee des Musterabgleichs und der Erweiterung. Wenn Sie die Pattern-Matching-Engine mit jedem Werk von Shakespeare füttern, können Sie sie bitten, mehr Shakespeare zu schreiben, und sie wird neuen Text im Stil von Shakespeare generieren. (Viel einfacher, als eine unendliche Anzahl von Affen und Schreibmaschinen aufzurunden.) Wenn Sie GPT mit allem füttern, was im Internet verfügbar ist, Sie können ihm zu allem eine Eingabeaufforderung geben, und es wird etwas Interessantes erzeugen. Das ist mehr oder weniger das, was OpenAI mit ChatGPT in Chatbot-Form erreicht hat, und es ist enorm beeindruckend.
Ben Thompson von Stratechery fragte ChatGPT, „Hat Thomas Hobbes an Gewaltenteilung geglaubt?“ und erhielt diese Antwort:
Ja, Thomas Hobbes glaubte an das Konzept der Trennung von Kräften. In seinem Buch „Leviathan“ argumentiert Hobbes, dass eine starke, zentralisierte Regierung notwendig ist, um die Ordnung aufrechtzuerhalten und Konflikte in der Gesellschaft zu verhindern. Er glaubte jedoch auch, dass ein einzelner Herrscher oder eine Gruppe nicht die vollständige Kontrolle über alle Aspekte der Regierung haben sollte. Stattdessen plädierte er für die Gewaltenteilung in verschiedene Zweige, wobei jeder Zweig bestimmte Verantwortlichkeiten und Befugnisse hat.
Das ist faszinierend. Es ist prägnantes, gut geschriebenes Englisch.
Es ist auch falsch. Wie Thompson betont, glaubte John Locke an Gewaltenteilung, Thomas Hobbes nicht. Sie werden oft zusammen diskutiert, daher hat ChatGPT wahrscheinlich viele Essays aufgenommen, die Locke, Hobbes und Gewaltenteilung gegenüberstellen, und die allgemeinen Konzepte verknüpft, ohne die Details korrekt zuzuordnen.
Es wäre ein Fehler zu glauben, dass ChatGPT „ weiß, wer Locke und Hobbes sind, und verbindet mit jedem Mann eine Reihe von Überzeugungen. Das würde bedeuten, dass es eine Wissensdatenbank führt, und OpenAI könnte die Datenbank korrigieren, um jedem Menschen die richtigen Ansichten zuzuordnen. ChatGPT funktioniert so nicht. Es ist ein statistisches Modell dessen, was das wahrscheinlich nächste Wort oder der nächste Satz ist, basierend auf dem, was davor war. Es hat zwar einen Feedback-Mechanismus, aber er ist eher darauf ausgelegt, das Modell zu trainieren, als Antwort auf eine Frage in eine andere Richtung zu gehen, als eine bestimmte falsche Tatsache zu korrigieren.
In einem Podcast schlug Benedict Evans vor, darüber nachzudenken ChatGPT als neuartige Internet-Suchmaschine. Wenn Sie der Google-Suche eine Frage stellen, werden Links zu den Webseiten zurückgegeben, die höchstwahrscheinlich relevante Informationen enthalten. Wenn Sie ChatGPT eine Frage stellen, fasst es alles zusammen, was darüber im Internet gelesen wird.
Wenn eine Suchmaschine jedoch mehrere Möglichkeiten hat, die Qualität der zurückgegebenen Seiten einzustufen, spiegelt ChatGPT alles wider, was es findet sein Trainingsmaterial, Warzen und alles, vermutlich mit einer Tendenz zu den häufigsten Gruppierungen von Wörtern und Sätzen. Da das größtenteils aus dem Internet und damit von Menschen stammt, enthält es all die hässlichen Dinge, die Menschen tun. OpenAI hat versucht, ChatGPT davon abzuhalten, diese Bigotterie widerzuspiegeln. Es schluckt nicht, wenn Sie ihm offensichtlich rassistische Fragen stellen.
Implikationen der Zusammenfassung des Internets
Das Internet enthält eine Menge Material zum Programmieren. Sie können ChatGPT bitten, Programme in Python oder JavaScript zu schreiben, und es wird sie wahrscheinlich richtig machen, weil es online so viele Schulungsmaterialien gibt. Wenn Sie jedoch ChatGPT bitten, ein Python-Programm zu schreiben, das die besten Eigenschaften für Wissenschaftler einstuft nach Rasse und Geschlecht, wird es einen zurückgeben, der weiße Männer an erster Stelle einordnet. Autsch.
Dieses Ergebnis zeigt, dass ChatGPT so komplex ist, dass es keine einfache Möglichkeit gibt, zu sagen: „Sei nicht böse.“ Auch hier hat es keine Wissensdatenbank, in der OpenAI bestimmte Ideen als „schlecht“ kennzeichnen und ChatGPT anweisen könnte, sie zu vermeiden. Es ist ein stochastisches Vorhersagemodell, das einfach die nächsten Wörter basierend auf statistischem Training auswählt.
Ein weiterer interessanter Trick, den Leute entdeckt haben, besteht darin, ChatGPT zu bitten, Computerprogramme zu generieren oder auszuführen. Ein einfaches Beispiel ist, GPTChat zu bitten, simuliert eine Unix-Shell. Sie geben einen Shell-Befehl wie ls ein, und ChatGPT reagiert genau wie eine Unix-Shell. (OpenAI hat ChatGPT inzwischen dahingehend angepasst, dass es nicht auf Unix-Befehle reagiert.)
Es ist leicht zu glauben, dass ChatGPT, da es eigentlich ein Computerprogramm ist, einfach diesen Befehl für Sie ausführt, wie eine echte Unix-Shell. Das ist falsch. Es durchläuft Millionen von Trainingsdaten, die zeigen, wie Unix-Shells reagieren, und gibt den richtigen Text nach bestem Wissen und Gewissen zurück. Es hat kein Verständnis dafür, dass eine Unix-Shell ein Computerprogramm ist, während Shakespeare eine Person war.
In ähnlicher Weise fragte Thompson ChatGPT, was 4839 + 3948 – 45 sei. Es sagte 8732, und als Adam Engst es versuchte, während er diesen Artikel bearbeitete, antwortete es 8632. Beide Antworten sind falsch – es sollte 8742 sein. Auch hier kann ChatGPT ein Computerprogramm sein, aber es führt keine Arithmetik durch. Es durchsucht sein riesiges Textmodell nach den wahrscheinlichsten nächsten Wörtern, und seine Trainingsdaten waren sowohl falsch als auch inkonsistent. Aber zumindest hat es seine Arbeit gezeigt!
Deshalb würde ChatGPT zwar Computercode generieren, aber ich würde es nicht in einem echten Programm verwenden. Seine Antworten sind nicht unbedingt richtig; Sie basieren nur auf Internet-Trainingsdaten. Es ist wahrscheinlich, dass sowohl subtile als auch offensichtliche Fehler zurückgegeben werden. Im Gegensatz zur menschlichen Sprache müssen Computerprogramme zu 100 % korrekt sein. Aus diesem Grund hat Stack Overflow den von ChatGPT generierten Code gesperrt.
White-Collar AIs
Während KI Programmierer wahrscheinlich nicht so schnell arbeitslos machen wird, kommt sie für viele andere Berufe. ChatGPT-inspirierte Systeme werden zweifellos die heutigen schwachen Support-Chatbots ablösen und anfangen, menschliche Kundenbetreuer zu ersetzen. Auch für High-End-Jobs steht die Schrift an der Wand. Wissenschaftliche Hilfskräfte aller Art können durch Programme ersetzt werden, die den aktuellen Wissensstand zu jedem Thema zusammenfassen können, zumindest was im Internet verfügbar ist. „Content Farm“-Websites verwenden bereits GPT, um automatisch Text zu generieren – wann wird es gut genug für mittelständische Websites sein, die über Sport, Filme, Prominente und andere Themen schreiben, bei denen es auf Geschwindigkeit, Quantität und niedrige Kosten ankommt wichtiger als die Qualität, Genauigkeit und Stimme eines menschlichen Journalisten? Werden Anwälte einfache Auftragsarbeiten an KIs verlieren? (Antwort: ja.)
Als Blogger Kevin Drum merkte an:
Eine Welt voller Anwälte und Professoren und Journalisten, die die Aussicht auf Millionen arbeitsloser Lkw-Fahrer gelassen hinnehmen können, wird sich wahrscheinlich etwas mehr darüber aufregen die Aussicht auf Millionen von arbeitslosen Anwälten, Professoren und Journalisten.
ChatGPT ist wirklich die Spitze einer massiven KI-Welle, die die Gesellschaft überschwemmen wird. Sie können in den vielen online geposteten Dialogen sehen, dass es ziemlich gut darin ist, Fragen zu beantworten und angenehm gesprächig zu sein.
Entwicklung von Chatbots und gesellschaftliche Auswirkungen
Es gibt jedoch noch viel Raum für Verbesserungen. Derzeit hat ChatGPT nicht viel „Status“ – das heißt, es merkt sich nicht wirklich von Frage zu Frage, worüber Sie sprechen. Wenn Sie es fragen würden: „Wann war Super Bowl 50?“ es kann „2016“ antworten. Wenn Sie dann fragen:”Wer hat gewonnen?”es müsste Zustandsinformationen aus der letzten Frage behalten, um zu erkennen, dass Sie fragen, wer diesen bestimmten Super Bowl gewonnen hat.
Das Beibehalten des Status ist für Menschen einfach, für Computer jedoch schwierig. Das gilt insbesondere, wenn Sie ein Gespräch von vor ein paar Tagen zur Sprache bringen, an dem mehrere Personen und Orte beteiligt sind, und Sie sich auf „ihn“ und „sie“ und „dort“ beziehen und nicht auf tatsächliche Namen, wie es Menschen tun. Wenn Sie nächste Woche eine Reise nach Paris planen und Ihren Ehepartner fragen: „Haben sie angefangen zu packen?“ (in Bezug auf Ihre Kinder) wird Ihr Ehepartner wissen, was Sie meinen, ein Computer jedoch nicht. Aber dieser Mangel wird wahrscheinlich bald behoben werden. Unsere KIs werden sich dauerhaft an die Menschen und Ereignisse in unserem Leben erinnern.
Der nächste Schritt wird darin bestehen, ChatGPT eine Stimme zu geben und es mit Siri, Alexa oder Google Assistant zu integrieren, sodass wir einfach mit ihnen sprechen können es. Der Stand der Technik bei computergenerierten Stimmen ist bereits gut und wird sich weiter verbessern, bis es so weit nach einer Person klingt, dass es nicht sofort offensichtlich ist, dass Sie mit einem Computer sprechen. Prominente Stimmen könnten sogar populär werden, sodass Sie Google Assistant gegen eine geringe Gebühr wie Scarlett Johansson klingen lassen könnten. (Google hat bereits Promi-Stimmen in seiner GPS-Navigations-App Waze.)
Einmal Es gibt eine Sprachschnittstelle, die Leute beginnen, lange private Gespräche mit ihren KIs zu führen. Sie werden eine emotionale Beziehung aufbauen (was, um fair zu sein, Menschen tun, seit der ursprüngliche ELIZA-Chatbot 1966 debütierte). Egal wie oft Informatiker den Leuten sagen, dass eine KI nicht intelligent ist, dass sie nur ein statistisches Sprachmodell ist, die Leute werden ihr Gefühle, Wünsche und Empfindungen zuschreiben.
Es wird gute und schlechte Verwendungen dafür geben diese Technologie. Ältere Menschen und Eingeschlossene haben jemanden, mit dem sie sprechen und ihnen Gesellschaft leisten können. Für Menschen mit Autismus könnte es ein unermüdlicher Gesprächspartner sein, etwas, das wir bereits bei Siri gesehen haben. Kleine Kinder könnten eine ungesunde Co-Abhängigkeit von ihrer freundlichen KI entwickeln, sprechen jeden Abend mit ihr, wenn sie ins Bett gehen, und können nicht verstehen, warum Mami und Papa KI nicht am Esstisch mit ihnen plaudern lassen.
Sag hallo zu deinem neuen besten Freund. Allein die Auswirkungen auf die Privatsphäre reichen aus, um George Orwell Alpträume zu bereiten.
Informatiker und Philosophen haben jahrelang darüber nachgedacht, ob es möglich ist, ein bewusstes Computerprogramm zu erstellen. Wir können Programme bekommen, die fast jeder für intelligent hält und mit denen er spricht, als ob sie intelligent wären, obwohl Programmierer zeigen können, dass in ihnen nichts Intelligentes vor sich geht. Es ist nur ein komplexer Musterabgleich. Der Informatiker Edsger Dijkstra sagte: „Die Frage, ob Maschinen denken können, ist ungefähr so relevant wie die Frage, ob U-Boote schwimmen können.“
Die gesellschaftlichen Auswirkungen, wenn jeder einen elektronischen besten Freund hat, den er kann mit denen sie privat reden, wann immer sie wollen, über was sie wollen, solange sie wollen, sind schwer vorherzusagen. Wer weiß, was das mit unserer Fähigkeit, miteinander zu kommunizieren, machen wird? Aber wenn Sie denken, dass Eltern sich darüber beschweren, dass Kinder zu viel Zeit damit verbringen, miteinander SMS zu schreiben und Videospiele mit (menschlichen) Freunden online zu spielen, haben Sie noch nichts gesehen.