Wahrscheinlich, weil er nicht schnell genug einen erstellen kann

Nachdem er bekanntermaßen auf dem Rückfuß erwischt wurde, nachdem der Rivale Microsoft 10 Milliarden Pfund in ChatGPT, den Google-Chef, gesteckt hatte Prabhakar Raghavan warnte vor den Gefahren einer KI-Halluzination.

In einem Gespräch mit der deutschen Zeitung Welt am Sonntag warnte Raghavan: „Diese Art von künstlicher Intelligenz, über die wir sprechen, kann manchmal zu etwas führen, das wir Halluzination nennen … dies wird dann so ausgedrückt, dass eine Maschine eine überzeugende, aber völlig fiktive Antwort liefert.“

Raghavan sagte, die riesigen Sprachmodelle hinter dieser Technologie machten es Menschen unmöglich, jedes denkbare Verhalten des Systems zu überwachen.

Er sagte, dass Google überlege, wie wir diese Optionen in unsere Suche integrieren können Funktionen, insbesondere bei Fragen, auf die es nicht nur eine Antwort gibt.

“Wir spüren die Dringlichkeit, aber wir spüren auch die große Verantwortung. Wir halten uns an einen sehr hohen Standard. Und es ist auch mein Ziel, in Bezug auf die Integrität der Informationen und die Verantwortung, die wir übernehmen, führend bei Chatbots zu sein. Nur so können wir das Vertrauen der Öffentlichkeit bewahren.“

Das würde alles vernünftig klingen, wenn Raghavan all diese Dinge gesagt hätte, als Googles eigene KI-basierte Produkte veröffentlicht wurden. Google Translate zum Beispiel ist passabel, aber ungefähr so ​​genau und zuverlässig wie russische Artillerie. Google hat den Nutzern nicht gesagt, dass sie ihm nicht vertrauen sollen, und viele Unternehmen glauben tatsächlich, dass sie es verwenden können, um rechtlich sensible Dokumente zu übersetzen.

By Maxwell Gaven

Ich habe 7 Jahre im IT-Bereich gearbeitet. Es macht Spaß, den stetigen Wandel im IT-Bereich zu beobachten. IT ist mein Job, Hobby und Leben.