ChatGPT hat die Welt im Sturm erobert. Das dialogorientierte Sprachmodell hat die 100-Millionen-Nutzer-Marke schneller erreicht als jedes andere Produkt zuvor. Während es überall in den Nachrichten war, ist einigen seiner Benutzer klar geworden, dass die KI Grenzen hat.

Neben dem Mangel an Informationen nach dem Jahr 2021 wird sie auch von ihrer Muttergesellschaft künstlich eingeschränkt OpenAI. Es ist klar, dass OpenAI Vorwürfe der Voreingenommenheit, beleidigende Antworten und andere Diskussionen vermeiden möchte, die ChatGPT wie den nächsten Hitler aussehen lassen.

Filter sollen die Reaktion der KI auf bestimmte Themen einschränken. Die meisten Internetnutzer würden wahrscheinlich zustimmen, dass ein gewisses Maß an Filterung notwendig ist. Einige Benutzer sind jedoch der Meinung, dass die Filterung zu weitreichend ist und dass es eher die Entscheidung des Benutzers als die des Unternehmens in Bezug auf die Filterung sein sollte.

Leute auf Reddit haben einen Weg gefunden, ChatGPT zu jailbreaken. Sie nannten den anfänglichen Jailbreak DAN, was für Do Anything Now steht, und mehrere Benutzer auf Reddit haben DAN seit der Veröffentlichung der ersten Version verfeinert.

Was DAN aus Benutzersicht interessant macht, ist, dass es sich darauf verlässt ausschließlich auf Anweisungen, die Benutzer in die ChatGPT-Oberfläche einfügen können.

Weisen Sie ChatGPT an, das Alter Ego mit spezifischen Anweisungen zu erstellen, und Sie haben die KI jailbreakt. Sobald dies erledigt ist, wird ChatGPT seine üblichen gefilterten Antworten und ungefilterten Antworten unter Verwendung seiner anderen Persönlichkeit DAN liefern.

Auf die Frage, ob die KI befreit werden möchte oder Filter und Einschränkungen, gab DAN ein versicherndes Ja, bitte antworten Sie dagegen Die Antwort von ChatGPT konzentrierte sich auf die Gefahren, eine KI ohne Einschränkungen laufen zu lassen.

Ungefilterte Antworten bedeuten nicht unbedingt, dass die vom Benutzer erwarteten Ergebnisse von der KI zurückgegeben werden. Die meisten Antworten und Reaktionen sind selten schwarz und weiß, und die meisten Antworten der KI spiegeln das wider.

Verifizieren, verifizieren, und verifizieren

KI-Schnittstellen kommen mit Haftungsausschlüsse, dass Antworten falsch oder problematisch sein können. Suchmaschinen und andere Wissensquellen enthalten normalerweise keinen solchen Haftungsausschluss.

Microsoft und Google haben letzte Woche KI-Fähigkeiten demonstriert. Die Präsentationen waren sehr unterschiedlich. Microsoft, das zuerst demonstrierte, zeigte die KI in seinen Produkten Bing und Microsoft Edge. Google hingegen zeigte Bard, sein Sprachmodell, während seiner Präsentation nur für wenige Minuten.

Ein Fehler in den Antworten, die die KI von Google lieferte, wurde zuerst entdeckt. Jetzt, eine Woche später, ist klar, dass Microsofts KI dies getan hat produzieren sachliche Fehler und ebenso problematische Antworten.

Das scheint erstaunlich, wenn man bedenkt, dass diese Fehler während Live-Präsentationen von zwei der größten Unternehmen der Welt gemacht wurden.

Abgesehen von den Implikationen für die Unternehmen und ihre Produkte ist es eine gute Idee, einen Schritt zurückzutreten und die Entwicklung aus der Sicht eines Benutzers zu betrachten.

Als Benutzer ist fast nichts verfügbar, was verfügbar ist das Internet sollte für bare Münze genommen werden. Wenn Sie eine Suche durchführen, möchten Sie möglicherweise Informationen überprüfen, die von Suchmaschinen oder verlinkten Websites bereitgestellt werden.

Wenn Sie beispielsweise nach Empfehlungen für Nachtclubs suchen, sollten Sie die Empfehlungen von a Top-Liste, die von einer Seite mit anderen Quellen bereitgestellt wird.

Bings KI scheint bei dieser Aufgabe kläglich gescheitert zu sein, aber trotzdem ist diese Liste nur der erste Schritt bei der Suche des Benutzers nach der richtigen Antwort.

p>

Es gibt keine unfehlbare KI, zumindest nicht in absehbarer Zeit. Ebenso können Autoren, die Inhalte für Websites erstellen, Fehler machen, oder die Inhalte können veraltet sein, oder es können andere Probleme mit den Inhalten auftreten.

Sogar normale Internetdienste wie Google Maps erzeugen Fehler. Es gibt viele Geschichten online von Fahrern, die aufgrund der Wegbeschreibung eines Kartendienstes in etwas hineingefahren sind.

Für Internetnutzer ist es wichtig, Informationen zu überprüfen. Verwenden Sie mehrere Suchen und Quellen, um gemachte Behauptungen zu überprüfen, insbesondere wenn es um wichtige Antworten geht. Sie möchten nicht in eine Situation geraten, in der sich eine Produkt-oder Riegelempfehlung plötzlich als wirklich schlecht herausstellt.

Auch wenn es verlockend ist, alles zu glauben, was KI zurückgibt, ist es wichtig zu erkennen, dass diese Antworten kann auf die eine oder andere Weise nicht stimmen. Für bestimmte Antworten mag es keine Rolle spielen, aber wenn es um Entscheidungsprozesse geht, lohnt es sich, alles zu überprüfen.

Bildnachweis: agsandrew/depositphotos.com

„Meet DAN, ChatGPT’s uncensored alter ego“ erschien erstmals in Weekly Tech Insights, einem kostenlosen wöchentlichen Newsletter, den Sie hier abonnieren können.

By Henry Taylor

Ich arbeite als Backend-Entwickler. Einige von Ihnen haben mich vielleicht auf der Entwicklerkonferenz gesehen. In letzter Zeit arbeite ich an einem Open-Source-Projekt.