A inteligência artificial continua dominando as manchetes, à medida que mais pessoas descobrem o poder de ferramentas como a OpenAI DALL-E 2 e especialmente ChatGPT. Essas ferramentas de aparência futurística funcionam pegando uma consulta ou solicitação de um humano e retornando uma resposta textual ou visual inteligente.
Do ponto de vista empresarial, a adoção da IA está crescendo rapidamente. De acordo com a Forrester, gastos em software de IA devem acelerar de US$ 33 bilhões em 2021 para US$ 64 bilhões em 2025–crescendo duas vezes mais rápido como o mercado geral de software. Mas, embora ferramentas como o ChatGPT possam parecer mágicas, é importante entender que essas soluções não são perfeitas.
Em particular, os líderes empresariais devem entender uma das preocupações mais urgentes que eles levantam: o viés da IA. Também conhecido como viés de algoritmo, o viés de IA ocorre quando os vieses humanos entram nos algoritmos. Esses vieses podem ser pré-existentes; quando os programadores humanos criam algoritmos, eles podem inadvertidamente (ou mesmo deliberadamente) selecionar um intervalo limitado de dados de entrada ou dados de entrada de uma fonte tendenciosa. O viés de IA também pode surgir devido às limitações do algoritmo específico que está sendo usado.
O viés da IA também não é uma preocupação da minoria. Mais de 50% das organizações são preocupado com o potencial do viés da IA prejudicar seus negócios. Mas qual é exatamente o problema e por que as empresas devem se importar?
O impacto do viés da IA
Falando de modo geral, a IA que produz resultados ofensivos pode ser atribuída à maneira como a IA aprende e ao conjunto de dados que está usando. Se os dados super-representam ou sub-representam uma determinada população de uma determinada maneira, a IA repetirá esse viés, gerando ainda mais dados que poluem ainda mais a fonte de dados e sua própria tomada de decisão.
Tome o caso do modelo de triagem Allegheny Family, que ajuda decidir se uma criança deve ser removida de uma família devido a abuso. Aqui, o viés reflete um preconceito social mais amplo: o conjunto de dados de treinamento do modelo inclui apenas dados disponíveis publicamente, o que significa que ignora as famílias que podem pagar por prestadores de cuidados privados. Da mesma forma, na área da saúde, o software de IA para detectar melanoma aparece menos propensos a trabalhar em pessoas com pele mais escura já que muitos dos conjuntos de dados usados para treinar este software usam imagens da Europa, América do Norte e Oceania exclusivamente.
Em um contexto britânico, um estudo apoiado pelo governo do Reino Unido publicado no British Medical Journal em 2022 descobriu que Os modelos de IA criados para identificar as pessoas com alto risco de doença hepática a partir de exames de sangue têm duas vezes mais chances de perder a doença em mulheres do que em homens. Por fim, um estudo de 2019 da UC Berkeley descobriu que a IA usada para alocar o atendimento ao paciente atribuído os pacientes negros têm pontuações de risco mais baixas do que os pacientes brancos, apesar do fato de que os pacientes negros eram estatisticamente mais propensos a ter comorbidades e, portanto, de fato, apresentavam níveis mais altos de risco.
Como resultado dessas desigualdades, as empresas poderia arriscar sérios danos à reputação. De fato, uma pesquisa recente com chefes de TI do Reino Unido e dos EUA constatou que 36% das empresas foram impactadas negativamente pelo viés da IA, resultando em perda de receita e clientes. A mesma pesquisa descobriu que a perda da confiança do cliente é vista como o principal risco decorrente do viés da IA, com mais da metade (56%) dos executivos citando-o.
Enquanto alguns acreditam no ChatGPT tem o potencial de enfraquecer o domínio do Google no espaço do mecanismo de pesquisa-ou até mesmo usurpar o Google completamente-casos como o estudo de Berkeley questionam isso. De fato, o chefe de IA do Google, Jeff Dean, descartou a ameaça potencial do ChatGPT nesse sentido, apontando para uma confiança preexistente e generalizada na integridade dos resultados de pesquisa do Google.
Lidando com o viés da IA
Eliminar os vieses presentes nos julgamentos humanos é uma tarefa assustadora e, como cientistas sociais sugeriram, o viés pode ser uma característica inevitável do ser humano cérebros. Felizmente, o viés nos conjuntos de dados pode ser reduzido e mitigado.
Os cientistas de dados devem ser treinados para melhor selecionar os dados que usam e para garantir que práticas éticas sejam seguidas na coleta e limpeza desses dados. Eles também devem se esforçar para preservar e promover dados de alta qualidade.
Quanto à sub-representação de determinados grupos, a melhor solução aqui é a transparência. Ao garantir que os dados sejam’abertos’e disponíveis para o maior número possível de cientistas de dados, podemos garantir que grupos mais diversos de pessoas possam obter amostras dos dados e apontar vieses inerentes. Usando essas experiências, também podemos construir modelos de IA que irão”treinar o treinador”, por assim dizer, quando se trata de identificar dados tendenciosos.
Indo um passo adiante, também seria útil remover outros dados correlacionados com informações protegidas, como códigos postais, que podem ser usados para excluir determinados dados demográficos.
Uma abordagem holística
O viés da IA pode ter graves consequências para as empresas e, como vimos, essas consequências podem facilmente se espalhar para a sociedade em geral. Se as consequências são uma desconfiança geral da IA; decisões de negócios ruins; ou decisões que prejudiquem o bem-estar de comunidades inteiras, toda a sociedade deve se unir para resolver o viés da IA.
Cabe aos cientistas de dados, líderes empresariais, acadêmicos e agências governamentais trabalharem juntos: compartilhando dados de forma livre e aberta chegar a um ponto em que possamos confiar mais na IA. Simplesmente, o viés da IA é um problema muito complicado e importante demais para ser resolvido de outra maneira.
Crédito da imagem: Wayne Williams
Ravi Mayuram é CTO , Couchbase.