Künstliche Intelligenz macht weiterhin Schlagzeilen, da immer mehr Menschen die Leistungsfähigkeit von Tools wie OpenAIs DALL-E entdecken 2 und insbesondere ChatGPT. Diese futuristisch anmutenden Tools funktionieren, indem sie die Abfrage oder Eingabeaufforderung eines Menschen entgegennehmen und eine intelligente textuelle oder visuelle Antwort zurückgeben.
Aus Unternehmenssicht nimmt die Einführung von KI schnell zu. Laut Forrester Ausgaben für KI-Software werden voraussichtlich von 33 Milliarden US-Dollar im Jahr 2021 auf 64 Milliarden US-Dollar im Jahr 2025 steigen – und damit doppelt so schnell wachsen wie der gesamte Softwaremarkt. Aber obwohl Tools wie ChatGPT magisch erscheinen mögen, ist es wichtig zu verstehen, dass diese Lösungen nicht perfekt sind.
Insbesondere Unternehmensleiter sollten eines der dringendsten Anliegen verstehen, das sie vorbringen: KI-Voreingenommenheit. Auch bekannt als Algorithmus-Bias, KI-Bias tritt auf, wenn menschliche Vorurteile in Algorithmen einfließen. Diese Vorurteile können bereits vorhanden sein; Wenn menschliche Programmierer Algorithmen erstellen, können sie versehentlich (oder sogar absichtlich) eine begrenzte Auswahl an Eingabedaten auswählen oder Daten aus einer voreingenommenen Quelle eingeben. KI-Voreingenommenheit kann auch aufgrund der Einschränkungen des jeweiligen verwendeten Algorithmus entstehen.
Auch KI-Voreingenommenheit ist kein Problem der Minderheit. Mehr als 50 Prozent der Unternehmen sind besorgt über die potenzielle Beeinträchtigung ihres Geschäfts durch KI-Voreingenommenheit. Aber was genau ist das Problem, und warum sollten sich Unternehmen darum kümmern?
Die Auswirkungen der KI-Voreingenommenheit
Im Allgemeinen kann KI zugeschrieben werden, die anstößige Ergebnisse liefert auf die Art und Weise, wie die KI lernt, und den Datensatz, den sie verwendet. Wenn die Daten eine bestimmte Population auf eine bestimmte Weise überrepräsentieren oder unterrepräsentieren, wiederholt die KI diese Verzerrung und generiert noch mehr Daten, die die Datenquelle und ihre eigene Entscheidungsfindung weiter verschmutzen.
Take der Fall des Screening-Modells der Familie Allegheny, das hilft entscheiden, ob ein Kind aufgrund von Missbrauch aus einer Familie genommen werden soll. Hier spiegelt die Verzerrung ein breiteres gesellschaftliches Vorurteil wider: Der Trainingsdatensatz des Modells umfasst nur öffentlich zugängliche Daten, was bedeutet, dass er Familien übersieht, die sich private Pflegeanbieter leisten können. In ähnlicher Weise erscheint im Gesundheitswesen KI-Software zur Erkennung von Melanomen funktioniert mit geringerer Wahrscheinlichkeit bei Menschen mit dunklerer Haut, da viele der zum Trainieren dieser Software verwendeten Datensätze ausschließlich Bilder aus Europa, Nordamerika und Ozeanien verwenden.
Im britischen Kontext ergab eine von der britischen Regierung unterstützte Studie, die 2022 im British Medical Journal veröffentlicht wurde, dass KI-Modelle, die entwickelt wurden, um Menschen mit hohem Risiko für Lebererkrankungen anhand von Bluttests zu identifizieren, übersehen bei Frauen doppelt so häufig Krankheiten wie bei Männern. Und schließlich fand eine Studie der UC Berkeley aus dem Jahr 2019 heraus, dass KI verwendet wurde, um die zugewiesene Patientenversorgung zuzuweisen Schwarze Patienten haben niedrigere Risikowerte als weiße Patienten, obwohl die schwarzen Patienten statistisch gesehen mit größerer Wahrscheinlichkeit komorbide Erkrankungen hatten und daher tatsächlich einem höheren Risiko ausgesetzt waren.
Als Ergebnis dieser Ungerechtigkeiten haben Unternehmen ernsthaften Reputationsschaden riskieren könnten. Eine aktuelle Umfrage unter IT-Chefs in Großbritannien und den USA stellte fest, dass 36 % der Unternehmen von KI-Voreingenommenheit negativ beeinflusst wurden, was zu Umsatz-und Kundenverlusten führte. Dieselbe Umfrage ergab, dass der Verlust des Kundenvertrauens als das Hauptrisiko angesehen wird, das sich aus der KI-Voreingenommenheit ergibt, wobei mehr als die Hälfte (56 Prozent) der Führungskräfte dies anführt.
Während manche ChatGPT glauben hat das Potenzial, Googles Dominanz im Suchmaschinenbereich zu schwächen – oder Google sogar ganz an sich zu reißen – Fälle wie die Berkeley-Studie stellen dies in Frage. Tatsächlich hat der KI-Chef von Google, Jeff Dean, die potenzielle Bedrohung von ChatGPT in dieser Richtung abgetan, was auf ein weitverbreitetes, bereits bestehendes Vertrauen in die Integrität der Google-Suchergebnisse hinweist.
Angehen von KI-Voreingenommenheit
Die Beseitigung der in menschlichen Urteilen vorhandenen Vorurteile ist eine entmutigende Aufgabe, und wie Sozialwissenschaftler angedeutet haben, kann Voreingenommenheit ein unvermeidliches Merkmal menschlicher Gehirne. Glücklicherweise können Verzerrungen in Datensätzen reduziert und gemildert werden.
Datenwissenschaftler müssen geschult werden, um die von ihnen verwendeten Daten besser zu kuratieren und sicherzustellen, dass bei der Erfassung und Bereinigung dieser Daten ethische Praktiken eingehalten werden. Sie sollten sich auch bemühen, qualitativ hochwertige Daten zu bewahren und zu fördern.
Was die Unterrepräsentation bestimmter Gruppen betrifft, so ist hier die beste Lösung Transparenz. Indem wir sicherstellen, dass die Daten „offen“ und für so viele Datenwissenschaftler wie möglich verfügbar sind, können wir sicherstellen, dass mehr unterschiedliche Gruppen von Menschen die Daten prüfen und inhärente Vorurteile aufzeigen können. Mit diesen Erfahrungen können wir auch KI-Modelle bauen, die sozusagen den Trainer schulen, wenn es darum geht, voreingenommene Daten zu identifizieren.
Wenn wir noch einen Schritt weiter gehen, wäre es auch hilfreich, sie zu entfernen andere Daten, die mit geschützten Informationen korreliert sind, wie z. B. Postleitzahlen, die verwendet werden könnten, um bestimmte demografische Merkmale auszuschließen.
Ein ganzheitlicher Ansatz
KI-Voreingenommenheit kann auftreten schwerwiegende Folgen für Unternehmen, und wie wir gesehen haben, können diese Folgen leicht auf die Gesellschaft im weiteren Sinne übergreifen. Ob die Folgen ein allgemeines Misstrauen gegenüber KI sind; schlechte Geschäftsentscheidungen; oder Entscheidungen, die dem Wohlergehen ganzer Gemeinschaften schaden, muss die gesamte Gesellschaft zusammenkommen, um KI-Vorurteile zu beseitigen.
Datenwissenschaftler, Unternehmensleiter, Akademiker und Regierungsbehörden müssen zusammenarbeiten: Daten frei und offen teilen an einen Punkt zu gelangen, an dem wir der KI mehr vertrauen können. Ganz einfach, KI-Voreingenommenheit ist ein zu kompliziertes und zu wichtiges Problem, um auf andere Weise angegangen zu werden.
Bildnachweis: Wayne Williams
Ravi Mayuram ist CTO ,Couchbase.