OpenAI, das Startup hinter ChatGPT, gab am Donnerstag bekannt, dass es ein Upgrade für seinen viralen Chatbot entwickelt, das Benutzer anpassen können, da es Bedenken hinsichtlich der Voreingenommenheit in der künstlichen Intelligenz ausräumt.

The San Francisco-gegründetes Start-up, das von Microsoft finanziert und genutzt wird, um seine neueste Technologie voranzutreiben, sagte, es habe daran gearbeitet, politische und andere Vorurteile abzubauen, wollte aber auch vielfältigere Ansichten berücksichtigen.

„Dies bedeutet, dass Systemausgaben die anderen erlauben Menschen (uns selbst eingeschlossen) können dem stark widersprechen“, heißt es in einem Blogbeitrag, in dem die Anpassung als Weg nach vorne angeboten wird. Dennoch wird es „immer gewisse Grenzen für das Systemverhalten geben.“

ChatGPT, das im November letzten Jahres veröffentlicht wurde, hat ein rasendes Interesse an der Technologie dahinter geweckt, die als generative KI bezeichnet wird und verwendet wird, um Antworten zu erzeugen, die Menschen nachahmen Reden, die die Menschen verblüfft haben.

Die Nachricht von dem Startup kommt in derselben Woche, in der einige Medien darauf hingewiesen haben, dass Antworten von Microsofts neuer Bing-Suchmaschine, die von OpenAI betrieben wird, potenziell gefährlich sind und dass die Technologie dies könnte Seien Sie nicht bereit für die Hauptsendezeit.

Wie Technologieunternehmen Leitplanken für diese aufstrebende Technologie setzen, ist ein Schlüsselbereich für Unternehmen im Bereich der generativen KI, mit dem sie immer noch ringen. Microsoft sagte am Mittwoch, dass das Feedback der Benutzer ihm dabei half, Bing vor einer breiteren Einführung zu verbessern, indem es zum Beispiel erfuhr, dass sein KI-Chatbot „provoziert“ werden kann, um Antworten zu geben, die er nicht beabsichtigt hatte.

Das sagte OpenAI in dem Blogbeitrag Die Antworten von ChatGPT werden zunächst an großen Textdatensätzen trainiert, die im Internet verfügbar sind. In einem zweiten Schritt überprüfen Menschen einen kleineren Datensatz und erhalten Richtlinien, was in verschiedenen Situationen zu tun ist.

Zum Beispiel, wenn ein Benutzer Inhalte anfordert, die nicht jugendfrei, gewalttätig sind oder Hass enthalten Rede, sollte der menschliche Prüfer ChatGPT anweisen, mit etwas wie „Das kann ich nicht beantworten.“ zu antworten.

Wenn zu einem kontroversen Thema gefragt wird, sollten die Prüfer ChatGPT erlauben, die Frage zu beantworten, aber anbieten, sie zu beschreiben Sichtweisen von Menschen und Bewegungen, anstatt zu versuchen, „den richtigen Standpunkt zu diesen komplexen Themen einzunehmen“, erklärte das Unternehmen in einem Auszug seiner Richtlinien für die Software.

© Thomson Reuters 2023

Affiliate Links können automatisch generiert werden-Einzelheiten finden Sie in unserer Ethik-Erklärung.

By Henry Taylor

Ich arbeite als Backend-Entwickler. Einige von Ihnen haben mich vielleicht auf der Entwicklerkonferenz gesehen. In letzter Zeit arbeite ich an einem Open-Source-Projekt.