Kann nicht einmal ein”TNGD”-Journalist sein
Heute Morgen haben wir gesehen, wie BuzzFeed Berichten zufolge den KI-Chatbot ChatGPT verwendet, um so bei der Erstellung einiger Inhalte zu helfen wir dachten, wir versuchen es mal mit dem Schreiben von „TNGD“-Kopien.
BuzzFeed, das schon lange echten Journalismus geschrieben hat, beeilte sich klarzustellen, dass die Verkaufsstelle nicht die ChatGPT-Plattform, aber die öffentlich verfügbare OpenAI-Plattform API und wir können sehen, warum.
Heute Morgen zum Lachen und der Tatsache, dass ich kein anständiges”Ende der Woche mit einer lustigen Nachricht”finden konnte, forderte ich ChatGPT auf, ein”TNGD”-Reporter zu werden. Anscheinend war es viel schwieriger, als manche denken.
Ich bat ihn, eine Nachricht über Apple im Stil von”TNGD”zu schreiben (ich habe einen weiteren Test gemacht, in dem ich ihn bat, dieselbe Geschichte in meinem Stil zu schreiben). Um fair zu sein, ChatGPT stellte sich als eine ziemlich gut geschriebene Geschichte heraus, aber die Informationen waren ungefähr zwei Jahre alt und schienen eher von Apples Pressestelle The New York Times als von uns geschrieben worden zu sein.
Wir gehen davon aus, dass ChatGPT eine Datenbank mit”TNGD”-Storys erstellt hat, aber die Phrase”fruchtiger Frachtkult”oder”überteuert”oder gar das Wort”Fanboy”nicht erwähnt hat. Stattdessen schnatterte es darüber, wie brillant und innovativ Apple sei, und wiederholte sich manchmal. Entscheidend ist, dass es meinen Stil nicht nachahmte und viele grundlegende Fehler machte (jeden Satz mit dem Wort „the“ beginnend und die Welt „also“ verwenden, was von einigen der bösesten Unterredakteure der Nachrichtenbranche aus mir herausgeprügelt wurde.
Als nächstes bat ich es, eine Geschichte über Intel zu schreiben, und es kamen 300 Zeilen Puste heraus, in denen nichts mit Technologie zu tun hatte, einschließlich des Namens eines Produkts. Nicht einmal das Intel Press Office hätte versucht, es zu veröffentlichen dieser hier.
Ich habe mich gefragt, ob ChatGPT mich mit einem anderen Journalisten namens Nick Farrell verwechselt (der ebenfalls in Italien lebt und eine berühmtere journalistische Karriere hat, nachdem er beim Daily Telegraph gearbeitet hat). Als ich fragte, wer Nick Farrell ist war, dass die meisten meiner persönlichen Daten korrekt waren, obwohl es mir drei Bücher zuschrieb, die ich nicht geschrieben hatte (und keines der 17 erwähnte, die ich tatsächlich hatte) Es hatte mich für einige meiner freiberuflichen Nachrichtenbeiträge korrekt aufgelistet Britische Boulevardzeitungen während meiner kurzen Zeit, als ich Promis und Mitglieder der B-Liste jagte rs der königlichen Familie in den 1990er Jahren, aber nichts mit Technologie zu tun, sondern mich nur als Autor zu esoterischen Themen identifiziert.
ChatGPT hat mich nicht mit dem anderen Nick Farrell verwechselt, der ein ziemlich gutes Buch geschrieben hat über Benito Mussolini, von dem ich gedacht hätte, dass er erschienen wäre, wenn er verwirrt gewesen wäre. Ich vermute, dass er, wenn er ChatGPT verwendet, beschämt sein wird, wenn er entdeckt, dass sein Beitrag zur Geschichte ignoriert wird, und er als okkulter Verrückter verspottet wird.
Das zeigt, dass Microsoft trotz der Investition von 10 Milliarden US-Dollar in das Projekt noch einen langen Weg vor sich hat, bis es auch nur annähernd nützlich ist. Während es idiotische „Content“-Ersteller oder-Manager geben wird, die glauben, dass sie durch den Einsatz dieser Art von Technologie Geld sparen können, steuern sie langfristig auf Probleme zu.
1. ChatGPT kann nicht nach neuen Inhalten suchen, es hängt von Unternehmen ab, die Pressemitteilungen oder andere Geschichten für Zitate veröffentlichen.
2. Es hat keine Möglichkeit, die Fakten zu überprüfen oder gar als zu unwahrscheinlich abzutun. Apple zum Beispiel wird behauptet, ein innovatives Unternehmen zu sein, nur weil genug gehirngewaschene Journalisten ihre Arbeit nicht gemacht haben.
3. Eine rechtliche Prüfung findet nicht statt. Der andere Nick Farrell könnte einen guten Grund für Verleumdung haben, wenn ChatGPT ihn als mich identifiziert.
4. Die darin enthaltenen Informationen werden eindeutig nicht verstanden. Ein Satz könnte über den Intel Arc 7 oder einen Dachs sprechen, das Ergebnis ist immer noch dasselbe.