Ein talentierter Schreiber mit atemberaubenden kreativen Fähigkeiten hat ein sensationelles Debüt. ChatGPT, ein Textgenerierungssystem der in San Francisco ansässigen OpenAI, schreibt seit seiner kürzlichen Veröffentlichung Essays, Drehbücher und Limericks, normalerweise in Sekundenschnelle und oft auf hohem Niveau. Sogar seine Witze können lustig sein. Viele Wissenschaftler auf dem Gebiet der künstlichen Intelligenz haben darüber gestaunt, wie menschenähnlich es klingt.
Und bemerkenswerterweise wird es bald besser werden. Es wird allgemein erwartet, dass OpenAI seine nächste Iteration, bekannt als GPT-4, in den kommenden Monaten veröffentlichen wird, und frühe Tester sagen, dass es besser ist als alles zuvor.
Aber all diese Verbesserungen haben ihren Preis. Je besser die KI wird, desto schwieriger wird es, zwischen menschlichem und maschinell erstelltem Text zu unterscheiden. OpenAI muss seinen Bemühungen Priorität einräumen, die Arbeit von Maschinen zu kennzeichnen, oder wir könnten bald mit einem verwirrenden Mischmasch aus echten und gefälschten Informationen online überwältigt werden.
Im Moment legt es den Menschen die Last auf, ehrlich zu sein. Die Richtlinie von OpenAI für ChatGPT besagt, dass Benutzer beim Teilen von Inhalten aus ihrem System deutlich angeben sollten, dass sie von KI „auf eine Weise generiert wurden, die kein Leser möglicherweise übersehen“ oder missverstehen könnte.
Dazu sage ich, gut Glück.
KI wird mit ziemlicher Sicherheit dazu beitragen, den College-Aufsatz zu töten. (Ein Student in Neuseeland hat bereits zugegeben, dass er es verwendet hat, um seine Noten zu verbessern.) Regierungen werden es verwenden, um soziale Netzwerke mit Propaganda zu überfluten, Spammer, um gefälschte Amazon-Rezensionen zu schreiben, und Ransomware-Banden, um überzeugendere Phishing-E-Mails zu schreiben. Keiner wird auf die Maschine hinter dem Vorhang zeigen.
Und Sie müssen mir einfach glauben, dass diese Kolumne auch vollständig von einem Menschen entworfen wurde.
KI-generiert Text braucht dringend eine Art Wasserzeichen, ähnlich wie Bildagenturen ihre Bilder schützen und Filmstudios Piraterie abschrecken. OpenAI verfügt bereits über eine Methode, um ein anderes Tool zur Generierung von Inhalten namens DALL-E mit einer eingebetteten Signatur in jedem von ihm generierten Bild zu kennzeichnen. Aber es ist viel schwieriger, die Herkunft von Texten zu verfolgen. Wie kann man Wörtern ein geheimes, schwer zu entfernendes Etikett anheften?
Der vielversprechendste Ansatz ist die Kryptografie. In einem Gastvortrag im vergangenen Monat an der University of Texas in Austin gab OpenAI-Forscher Scott Aaronson einen seltenen Einblick, wie das Unternehmen Text unterscheiden könnte, der von dem noch menschlicheren GPT-4-Tool generiert wurde.
Aaronson, der dieses Jahr von OpenAI beauftragt wurde, die Provenienzherausforderung anzugehen, erklärte, dass Wörter in eine Reihe von Token umgewandelt werden könnten, die Satzzeichen, Buchstaben oder Wortteile darstellen und insgesamt etwa 100.000 Token ausmachen. Das GPT-System würde dann die Anordnung dieser Token (die den Text selbst widerspiegeln) so festlegen, dass sie mit einem kryptografischen Schlüssel erkannt werden könnten, der nur OpenAI bekannt ist. „Das wird für den Endbenutzer keinen erkennbaren Unterschied machen“, sagte Aaronson.
Tatsächlich würde jeder, der ein GPT-Tool verwendet, es schwer finden, das Wasserzeichensignal zu löschen, selbst wenn er die Wörter neu anordnet oder Satzzeichen herausnehmen, sagte er. Der beste Weg, es zu besiegen, wäre die Verwendung eines anderen KI-Systems, um die Ausgabe des GPT-Tools zu paraphrasieren. Aber das erfordert Anstrengung, und nicht jeder würde das tun. In seinem Vortrag sagte Aaronson, er habe einen funktionierenden Prototyp.
Aber selbst wenn man annimmt, dass seine Methode außerhalb einer Laborumgebung funktioniert, hat OpenAI immer noch ein Dilemma. Gibt es die Wasserzeichen-Schlüssel für die Öffentlichkeit frei oder hält sie sie privat?
Wenn die Schlüssel öffentlich gemacht werden, könnten Professoren überall die Aufsätze ihrer Studenten durch spezielle Software laufen lassen, um sicherzustellen, dass sie nicht maschinell generiert werden , so wie es viele jetzt tun, um auf Plagiate zu prüfen. Aber das würde es auch Angreifern ermöglichen, das Wasserzeichen zu erkennen und zu entfernen.
Die Geheimhaltung der Schlüssel schafft ein potenziell mächtiges Geschäftsmodell für OpenAI: Gebühren für den Zugriff zu verlangen. IT-Administratoren könnten ein Abonnement bezahlen, um eingehende E-Mails auf Phishing-Angriffe zu scannen, während Hochschulen eine Gruppengebühr für ihre Professoren zahlen könnten – und der Preis für die Verwendung des Tools müsste hoch genug sein, um Ransomware-Banden und Propagandaautoren abzuschrecken. OpenAI würde im Wesentlichen Geld damit verdienen, den Missbrauch seiner eigenen Kreation zu stoppen.
Wir sollten auch bedenken, dass Technologieunternehmen nicht die beste Erfolgsbilanz haben, wenn es darum geht, den Missbrauch ihrer Systeme zu verhindern, insbesondere wenn sie es sind unreguliert und gewinnorientiert. (OpenAI sagt, es sei ein hybrides Profit-und gemeinnütziges Unternehmen, das seine zukünftigen Einnahmen begrenzen wird.) Aber die strengen Filter, die OpenAI bereits eingerichtet hat, um zu verhindern, dass seine Text-und Bildtools anstößige Inhalte generieren, sind ein guter Anfang.
Jetzt muss OpenAI ein Wasserzeichensystem für seinen Text priorisieren. Unsere Zukunft wird voraussichtlich von maschinengenerierten Informationen überschwemmt werden, nicht nur von den immer beliebter werdenden Tools von OpenAI, sondern auch von einem breiteren Anstieg gefälschter, „synthetischer“ Daten, die zum Trainieren von KI-Modellen und zum Ersetzen von Menschen erstellter Daten verwendet werden. Bilder, Videos, Musik und mehr werden zunehmend künstlich erzeugt, um unserem hyperpersonalisierten Geschmack zu entsprechen.
Es ist natürlich möglich, dass es unserem zukünftigen Selbst egal ist, ob ein eingängiger Song oder Cartoon von KI stammt. Menschliche Werte ändern sich im Laufe der Zeit; wir kümmern uns heute viel weniger um das Auswendiglernen von Fakten und Wegbeschreibungen als zum Beispiel vor 20 Jahren. An einem gewissen Punkt scheinen Wasserzeichen also vielleicht nicht mehr so notwendig zu sein.
Aber jetzt, da dem menschlichen Einfallsreichtum, für den andere bezahlen oder bewerten, ein greifbarer Wert beigemessen wird, und mit der nahen Gewissheit, dass das Tool von OpenAI missbraucht wird, Wir müssen wissen, wo das menschliche Gehirn aufhört und die Maschine beginnt. Ein Wasserzeichen wäre ein guter Anfang.
© 2022 Bloomberg LP
Wenn Sie heute ein erschwingliches 5G-Smartphone kaufen, zahlen Sie normalerweise eine”5G-Steuer”. Was bedeutet das für diejenigen, die Zugang zu 5G-Netzen erhalten möchten, sobald diese starten? Finde es in der Folge dieser Woche heraus. Orbital ist verfügbar auf Spotify, Gaana, JioSaavn, Google Podcasts, Apple Podcasts, Amazon Music und überall dort, wo Sie Ihre Podcasts erhalten.
Affiliate-Links können vorhanden sein automatisch generiert-Einzelheiten finden Sie in unserer Ethik-Erklärung.