Von: Migüel Jetté, VP of R&D Speech, Rev.
In In ihren Anfängen konnte sich die KI möglicherweise auf den Lorbeeren der Neuheit ausruhen. Es war in Ordnung, dass maschinelles Lernen langsam lernte und einen undurchsichtigen Prozess beibehielt, bei dem die Berechnung der KI für den Durchschnittsverbraucher unmöglich zu durchdringen ist. Das ändert sich. Da immer mehr Branchen wie das Gesundheitswesen, das Finanzwesen und das Strafjustizsystem beginnen, KI auf eine Weise zu nutzen, die einen echten Einfluss auf das Leben der Menschen haben kann, wollen immer mehr Menschen wissen, wie die Algorithmen verwendet werden, wie die Daten beschafft werden und wie wie genau seine Fähigkeiten sind. Wenn Unternehmen in ihren Märkten an der Spitze der Innovation bleiben wollen, müssen sie sich auf KI verlassen, der ihr Publikum vertraut. KI-Erklärbarkeit ist der Schlüsselfaktor, um diese Beziehung zu vertiefen.
KI-Erklärbarkeit unterscheidet sich von standardmäßigen KI-Verfahren, da sie Menschen eine Möglichkeit bietet, zu verstehen, wie die maschinellen Lernalgorithmen Ergebnisse erzeugen. Erklärbare KI ist ein System, das Menschen potenzielle Ergebnisse und Mängel aufzeigen kann. Es ist ein maschinelles Lernsystem, das den sehr menschlichen Wunsch nach Fairness, Rechenschaftspflicht und Respekt für die Privatsphäre erfüllen kann. Erklärbare KI ist für Unternehmen unerlässlich, um Vertrauen bei Verbrauchern aufzubauen.
Während KI expandiert, müssen KI-Anbieter verstehen, dass die Blackbox das nicht kann. Black-Box-Modelle werden direkt aus den Daten erstellt, und oft kann nicht einmal der Entwickler, der den Algorithmus erstellt hat, erkennen, was die erlernten Gewohnheiten der Maschine vorangetrieben hat. Aber der gewissenhafte Verbraucher möchte sich nicht mit etwas beschäftigen, das so undurchdringlich ist, dass er nicht zur Rechenschaft gezogen werden kann. Die Leute möchten wissen, wie ein KI-Algorithmus zu einem bestimmten Ergebnis kommt, ohne das Mysterium von quellenbezogener Eingabe und kontrollierter Ausgabe, insbesondere wenn die Fehleinschätzungen der KI häufig auf maschinelle Verzerrungen zurückzuführen sind. Mit zunehmender Weiterentwicklung der KI möchten die Menschen Zugang zum maschinellen Lernprozess haben, um zu verstehen, wie der Algorithmus zu seinem spezifischen Ergebnis gekommen ist. Führungskräfte in allen Branchen müssen verstehen, dass die Menschen diesen Zugang früher oder später nicht mehr bevorzugen, sondern als notwendiges Maß an Transparenz fordern werden.
ASR-Systeme wie sprachgesteuerte Assistenten, Transkriptionstechnologie und andere Dienste, die menschliche Sprache in Text umwandeln, sind besonders von Vorurteilen geplagt. Wenn der Dienst für Sicherheitsmaßnahmen verwendet wird, können Fehler aufgrund von Akzent, Alter oder Hintergrund einer Person schwerwiegende Fehler sein, sodass das Problem ernst genommen werden muss. ASR kann beispielsweise effektiv in Bodycams der Polizei eingesetzt werden, um Interaktionen automatisch aufzuzeichnen und zu transkribieren – eine Aufzeichnung zu führen, die, wenn sie genau transkribiert wird, Leben retten könnte. Die Praxis der Erklärbarkeit erfordert, dass sich die KI nicht nur auf gekaufte Datensätze verlässt, sondern versucht, die Eigenschaften des eingehenden Audios zu verstehen, die zu eventuellen Fehlern beitragen können. Was ist das akustische Profil? Gibt es Geräusche im Hintergrund? Stammt der Sprecher aus einem nicht englischsprachigen Land oder aus einer Generation, die ein Vokabular verwendet, das die KI noch nicht gelernt hat? Maschinelles Lernen muss beim schnelleren Lernen proaktiv sein und kann mit dem Sammeln von Daten beginnen, die diese Variablen ansprechen können.
Die Notwendigkeit wird offensichtlich, aber der Weg zur Implementierung dieser Methodik wird nicht immer eine einfache Lösung haben. Die traditionelle Antwort auf das Problem besteht darin, mehr Daten hinzuzufügen, aber eine ausgefeiltere Lösung wird erforderlich sein, insbesondere wenn die von vielen Unternehmen verwendeten gekauften Datensätze von Natur aus voreingenommen sind. Dies liegt daran, dass es in der Vergangenheit schwierig war, eine bestimmte Entscheidung zu erklären, die von der KI getroffen wurde, und das liegt an der Natur der Komplexität der End-to-End-Modelle. Aber wir können jetzt, und wir können damit beginnen, uns zu fragen, wie Menschen überhaupt das Vertrauen in KI verloren haben.
Unvermeidlich wird KI Fehler machen. Unternehmen müssen Modelle erstellen, die sich potenzieller Mängel bewusst sind, erkennen, wann und wo die Probleme auftreten, und kontinuierliche Lösungen entwickeln, um stärkere KI-Modelle zu erstellen:
Wenn etwas schief geht, müssen Entwickler erklären, was passiert ist und entwickeln Sie einen sofortigen Plan zur Verbesserung des Modells, um zukünftige ähnliche Fehler zu verringern. Damit die Maschine tatsächlich wissen kann, ob sie richtig oder falsch war, müssen Wissenschaftler eine Rückkopplungsschleife erstellen dass die KI ihre Mängel lernen und sich weiterentwickeln kann. Eine andere Möglichkeit für ASR, Vertrauen aufzubauen, während sich die KI noch verbessert, besteht darin, ein System zu erstellen, das Vertrauenswerte liefern kann und Gründe dafür angibt, warum die KI weniger wert ist zuversichtlich. Beispielsweise generieren Unternehmen in der Regel Bewertungen von null bis 100, um die Mängel ihrer eigenen KI widerzuspiegeln und Transparenz mit ihren Kunden herzustellen. In Zukunft können Systeme nachträglich erklären, warum das Audio herausfordernd war, indem sie mehr Metadaten über das Audio anbieten, z. B. den wahrgenommenen Geräuschpegel oder einen weniger verstandenen Akzent.
Zusätzliche Transparenz wird zu einer besseren menschlichen Überwachung des KI-Trainings führen und Leistung. Je offener wir darüber sind, wo wir uns verbessern müssen, desto mehr sind wir dafür verantwortlich, Maßnahmen für diese Verbesserungen zu ergreifen. Beispielsweise möchte ein Forscher möglicherweise wissen, warum ein fehlerhafter Text ausgegeben wurde, damit er das Problem entschärfen kann, während ein Transkriptionist möglicherweise Beweise dafür möchte, warum ASR die Eingabe falsch interpretiert hat, um bei der Bewertung ihrer Gültigkeit zu helfen. Menschen auf dem Laufenden zu halten, kann einige der offensichtlichsten Probleme entschärfen, die entstehen, wenn KI nicht kontrolliert wird. Es kann auch die Zeit verkürzen, die die KI benötigt, um ihre Fehler zu erkennen, sich selbst zu verbessern und schließlich in Echtzeit zu korrigieren.
KI hat die Fähigkeit, das Leben der Menschen zu verbessern, aber nur, wenn Menschen sie bauen, um richtig zu produzieren. Wir müssen nicht nur diese Systeme zur Rechenschaft ziehen, sondern auch die Menschen hinter der Innovation. Von KI-Systemen der Zukunft wird erwartet, dass sie sich an die von Menschen festgelegten Prinzipien halten, und nur bis dahin werden wir ein System haben, dem Menschen vertrauen. Es ist an der Zeit, jetzt die Grundlagen zu schaffen und nach diesen Prinzipien zu streben, während es letztendlich immer noch Menschen sind, die sich selbst dienen.