Microsoft hat angekündigt dass die Möglichkeit für Benutzer eingeschränkt wird, mit dem Chatbot zu chatten, der in die neue Version der Bing-Suchmaschine integriert ist. Diese Entscheidung kommt, nachdem ein Journalist den Chatbot der Lügen, Aggression und unzureichenden Kommunikation beschuldigt hatte. Das neuronale Netzwerk kann jetzt nur fünfzig Benutzerfragen pro Tag und nur fünf pro Sitzung beantworten.

Bing erklärte in einem Blog post, „Unsere Daten haben gezeigt, dass die überwiegende Mehrheit von Ihnen die Antworten, die Sie innerhalb von 5 Runden suchen, und dass nur ~1 % der Chat-Gespräche mehr als 50 Nachrichten enthalten. Nachdem eine Chat-Sitzung 5 Runden erreicht hat, werden Sie aufgefordert, ein neues Thema zu beginnen.“ Infolgedessen beginnt Bing jedes Mal eine neue Konversation, wenn Benutzer das festgelegte Limit von fünf Sitzungen überschreiten.

Microsoft weist darauf hin, dass längere Chatsitzungen mit 15 oder mehr Fragen dazu führen könnten, dass Bing „sich wiederholt oder aufgefordert wird/provoziert, Antworten zu geben, die nicht unbedingt hilfreich sind oder unserem vorgesehenen Ton entsprechen.“

Die Einschränkung der Fähigkeiten des KI-Chatbots erfolgt nach Berichten über unausgewogene Gespräche mit Benutzern, einschließlich emotionaler Manipulation und bizarrer Antworten. Microsoft versucht immer noch, den Ton von Bing zu verbessern, obwohl unklar ist, wie lange diese Beschränkungen bestehen bleiben.

Der Zugriff auf Bing AI bleibt eingeschränkt, und Benutzer werden aufgefordert, ihre E-Mail-Adresse auf der Warteliste für den offiziellen Start einzutragen. Trotz dieser Einschränkungen wird die Chat-Funktion von Bing täglich verbessert, wobei technische Probleme behoben und wöchentliche Korrekturen vorgenommen werden, um die Suche und die Antworten zu verbessern.

By Kaitlynn Clay

Ich arbeite als UX Experte. Ich interessiere mich für Webdesign und Nutzerverhaltensanalyse. An meinen freien Tagen besuche ich immer das Kunstmuseum.