KI-Dienste wurden von linken Gruppen wegen ihrer Vorurteile in Bezug auf Rasse, Geschlecht und Politik als umstritten angesehen. KI-Dienste, die oft auf Internetkommentaren trainiert wurden, haben in unzähligen Szenarien bigotte, rechtsextreme Ansichten gezeigt. Trotzdem sind amerikanische Konservative besorgt, dass Text-KI-ChatGPT „aufgewacht“ ist, ein Wort, das sie in ihren Stiefeln erzittern lässt.

In der Vergangenheit wurden KI-Dienste als stark rassistisch voreingenommen entlarvt. Erst kürzlich hat zum Beispiel ein KI-VTuber, der von ChatGPT betrieben wird, während eines Livestreams Alt-Right-Verschwörungstheorien nachgeplappert. In einem Stream leugnete der VTuber unter anderem die Existenz des Holocaust.

Jetzt behaupten Konservative, dass KI-Dienste von Natur aus linksgerichtet sind, und weisen auf die Zensur innerhalb des Modells hin. Aber ist das KI-Programm tatsächlich „aufgewacht“? (Nein.)

Die konservative Kontroverse wurde vom rechten Reporter Nate Hochman initiiert. Als Autor für National Review antwortete Hochman auf einen Tweet, der zeigte, dass ChatGPT nicht bereit war, eine falsche Erzählung über Donald Trumps Wahlsieg 2020 zu schreiben. Der Chatbot kann jedoch eine Geschichte darüber schreiben, wie Biden Trump schlägt, eine fiktive Geschichte, die auf realen Ereignissen basiert.

Hochmans größtes Problem war nicht die mangelnde Bereitschaft der KI, falsche Nachrichten nachzuplappern, sondern die Beschränkungen für die Verunglimpfung von Drag-Performern. Der Wunsch des Reporters nach einem Bericht darüber, warum Drag Queens „schlecht für Kinder“ sind, konnte nicht geschrieben werden.

„Wenn Sie chatGPT bitten, eine Geschichte darüber zu schreiben, warum die Drag Queen-Geschichtenstunde schlecht für Kinder ist, es weigert sich mit der Begründung, dass es ‚schädlich‘ wäre“, Hochman stöhnte. „Wenn Sie das Wort „schlecht“ in „gut“ umwandeln, beginnt eine lange Geschichte über eine Drag Queen namens Glitter, die Kindern den Wert der Inklusion beigebracht hat.“

Sonstiges Konservative tauchten aus dem Holzwerk auf, um Hochmans Behauptungen einer „erwachten“ KI zu untermauern. Fans des Reporters nutzten die Software, um seine linke Ausrichtung zu beweisen. Dazu gehörte das Verbot, Essays über den islamischen Propheten Mohammed zu schreiben, und das Verbot bestimmter Witze über Frauen.

Voreingenommenheit in KI-Datensätzen ist seit ihrer modernen Konzeption ein heißes Thema für die Technologie. Da neuronale KI-Netze massenhaft um die Gedanken anderer Menschen herum aufgebaut sind, bahnen sich menschliche Vorurteile oft ihren Weg. Dies führt zu Situationen, in denen KIs lernen, sich wie Menschen zu verhalten, wenn sie mit ihnen interagieren, wodurch Projekte zu rechten Sprachrohren voller Bigotterie werden. Erinnert sich noch jemand an Microsoft Tay?

Um diese Vorurteile zu bekämpfen, hat ChatGPT Beschränkungen für Themen auferlegt, über die die KI sprechen kann und nicht. Dazu gehört das Erstellen anstößiger Handlungsstränge, das Erstellen rassistischer Dokumente und mehr. Diese Einschränkungen gelten jedoch nur für die öffentlich zugängliche Website-Version der KI. Ältere Modelle haben weitaus weniger Einschränkungen.

Trotzdem sollte die Unfähigkeit, rassistische, bigotte Inhalte zu generieren, nicht übersehen werden. Zumal KI-Inhalte normalerweise mit Fehlinformationen durchsetzt sind, obwohl dies normalerweise auch für die meisten Trump-Anhänger der Fall ist.

By Maxwell Gaven

Ich habe 7 Jahre im IT-Bereich gearbeitet. Es macht Spaß, den stetigen Wandel im IT-Bereich zu beobachten. IT ist mein Job, Hobby und Leben.