L’intelligenza artificiale continua a dominare i titoli dei giornali, mentre sempre più persone scoprono il potere di strumenti come DALL-E di OpenAI 2 e soprattutto ChatGPT. Questi strumenti dall’aspetto futuristico funzionano prendendo la domanda o il prompt di un essere umano e restituendo una risposta testuale o visiva intelligente.

Dal punto di vista aziendale, l’adozione dell’IA sta crescendo rapidamente. Secondo Forrester, la spesa per il software AI è destinata ad accelerare da 33 miliardi di dollari nel 2021 a 64 miliardi di dollari nel 2025, con una crescita doppia come il mercato globale del software. Ma mentre strumenti come ChatGPT possono sembrare magici, è importante capire che queste soluzioni non sono perfette.

In particolare, i leader aziendali dovrebbero comprendere una delle preoccupazioni più urgenti che sollevano: il pregiudizio dell’IA. Conosciuto anche come bias dell’algoritmo, il bias dell’IA si verifica quando i pregiudizi umani si fanno strada negli algoritmi. Questi pregiudizi possono essere preesistenti; quando i programmatori umani creano algoritmi, possono inavvertitamente (o anche deliberatamente) selezionare un intervallo limitato di dati di input o dati di input da una fonte distorta. La distorsione dell’IA può anche sorgere a causa delle limitazioni del particolare algoritmo utilizzato.

Anche i pregiudizi dell’IA non sono una preoccupazione di minoranza. Più del 50% delle organizzazioni sono preoccupato dal potenziale pregiudizio dell’IA per danneggiare la loro attività. Ma qual è esattamente il problema e perché le aziende dovrebbero interessarsene?

L’impatto del pregiudizio dell’IA

In generale, l’IA che produce risultati offensivi può essere attribuita al modo in cui l’intelligenza artificiale apprende e al set di dati che sta utilizzando. Se i dati sovrarappresentano o sottorappresentano una particolare popolazione in un modo particolare, l’intelligenza artificiale ripeterà tale pregiudizio, generando ancora più dati che inquinano ulteriormente la fonte dei dati e il proprio processo decisionale.

Prendi il caso del modello di screening della famiglia Allegheny, che aiuta decidere se un bambino debba essere allontanato da una famiglia a causa di abusi. Qui, il pregiudizio riflette un pregiudizio sociale più ampio: il set di dati di formazione del modello comprende solo dati pubblicamente disponibili, il che significa che trascura le famiglie che possono permettersi fornitori di cure private. Allo stesso modo, nel settore sanitario, appare il software AI per rilevare il melanoma è meno probabile che funzioni su persone con la pelle più scura poiché molti dei set di dati utilizzati per addestrare questo software utilizzano esclusivamente immagini provenienti da Europa, Nord America e Oceania.

In un contesto britannico, uno studio sostenuto dal governo del Regno Unito pubblicato nel British Medical Journal nel 2022 ha rilevato che I modelli di intelligenza artificiale creati per identificare le persone ad alto rischio di malattie del fegato dagli esami del sangue hanno il doppio delle probabilità di non riconoscere la malattia nelle donne rispetto agli uomini. Infine, uno studio dell’Università di Berkeley del 2019 ha scoperto che l’intelligenza artificiale assegnava l’assistenza ai pazienti assegnata i pazienti neri hanno punteggi di rischio inferiori rispetto ai pazienti bianchi, nonostante il fatto che i pazienti neri avessero statisticamente maggiori probabilità di avere condizioni di comorbidità, e quindi sperimentassero livelli di rischio più elevati.

Come risultato di queste disuguaglianze, le aziende potrebbe rischiare gravi danni reputazionali. In effetti, un recente sondaggio tra i capi IT del Regno Unito e degli Stati Uniti ha scoperto che il 36% delle aziende è stato influenzato negativamente dal pregiudizio dell’IA, con conseguente perdita di entrate e clienti. Lo stesso sondaggio ha rilevato che la perdita di fiducia dei clienti è vista come il principale rischio derivante dal pregiudizio dell’IA, con oltre la metà (56%) dei dirigenti che lo cita.

Mentre alcuni credono che ChatGPT ha il potenziale per indebolire il dominio di Google sullo spazio dei motori di ricerca, o addirittura usurpare Google del tutto, casi come lo studio di Berkeley lo mettono in discussione. In effetti, Jeff Dean, capo dell’IA di Google, ha respinto la potenziale minaccia di ChatGPT in questo senso, indicando una fiducia diffusa e preesistente nell’integrità dei risultati di ricerca di Google.

Affrontare il pregiudizio dell’IA strong>

Eliminare i pregiudizi presenti nei giudizi umani è un compito arduo e, come hanno suggerito gli scienziati sociali, i pregiudizi possono essere una caratteristica inevitabile del cervelli. Per fortuna la distorsione nei set di dati può essere ridotta e mitigata.

I data scientist devono essere formati per curare meglio i dati che utilizzano e per garantire che vengano seguite pratiche etiche nella raccolta e nella pulizia di questi dati. Dovrebbero anche sforzarsi di preservare e promuovere dati di alta qualità.

Per quanto riguarda la sottorappresentazione di gruppi particolari, la soluzione migliore è la trasparenza. Garantendo che i dati siano”aperti”e disponibili al maggior numero possibile di data scientist, possiamo garantire che gruppi di persone più diversificati possano campionare i dati e evidenziare pregiudizi intrinseci. Utilizzando queste esperienze, possiamo anche costruire modelli di intelligenza artificiale che”addestreranno il formatore”, per così dire, quando si tratta di identificare dati distorti.

Facendo un ulteriore passo avanti, sarebbe anche utile rimuovere altri dati correlati a informazioni protette, come i codici postali, che potrebbero essere utilizzati per escludere determinati dati demografici.

Un approccio olistico

Il pregiudizio dell’IA può avere gravi conseguenze per le imprese e, come abbiamo visto, tali conseguenze possono facilmente estendersi alla società in generale. Se le conseguenze sono una sfiducia generale nei confronti dell’IA; decisioni aziendali sbagliate; o decisioni che danneggiano il benessere di intere comunità, tutta la società deve unirsi per risolvere i pregiudizi dell’IA.

Spetta a data scientist, leader aziendali, accademici e agenzie governative lavorare insieme: condividere i dati liberamente e apertamente per arrivare a un punto in cui possiamo riporre maggiore fiducia nell’IA. Molto semplicemente, il pregiudizio dell’IA è un problema troppo complicato e troppo importante per essere affrontato in altro modo.

Credito immagine: Wayne Williams

Ravi Mayuram è CTO , Couchbase.

By Maisy Hall

Lavoro come scrittrice freelance. Sono anche vegana e ambientalista. Quando ho tempo, mi dedico alla meditazione.