La inteligencia artificial continúa acaparando los titulares, a medida que más personas descubren el poder de herramientas como OpenAI DALL-E 2 y especialmente ChatGPT. Estas herramientas de aspecto futurista funcionan tomando la consulta o indicación de un ser humano y devolviendo una respuesta textual o visual inteligente.
Desde una perspectiva empresarial, la adopción de IA está creciendo rápidamente. Según Forrester, el gasto en software de IA se acelerará de $33 mil millones en 2021 a $64 mil millones en 2025, creciendo el doble de rápido como el mercado de software en general. Pero si bien herramientas como ChatGPT pueden parecer mágicas, es importante comprender que estas soluciones no son perfectas.
En particular, los líderes empresariales deben comprender una de las preocupaciones más apremiantes que plantean: el sesgo de la IA. También conocido como sesgo de algoritmo, el sesgo de IA ocurre cuando los sesgos humanos se abren paso en los algoritmos. Estos sesgos pueden ser preexistentes; cuando los programadores humanos crean algoritmos, pueden seleccionar sin darse cuenta (o incluso deliberadamente) un rango limitado de datos de entrada o datos de entrada de una fuente sesgada. El sesgo de IA también puede surgir debido a las limitaciones del algoritmo particular que se utiliza.
El sesgo de la IA tampoco es una preocupación minoritaria. Más del 50 por ciento de las organizaciones son preocupado por la posibilidad de que la IA perjudique su negocio. Pero, ¿cuál es exactamente el problema y por qué deberían preocuparse las empresas?
El impacto del sesgo de la IA
En términos generales, la IA que produce resultados ofensivos se puede atribuir a la forma en que la IA aprende y el conjunto de datos que está utilizando. Si los datos sobrerrepresentan o subrepresentan a una población particular de una manera particular, la IA repetirá ese sesgo, generando aún más datos que contaminan aún más la fuente de datos y su propia toma de decisiones.
Tome el caso del modelo de evaluación de la familia Allegheny, que ayuda decidir si un niño debe ser separado de una familia debido al abuso. Aquí, el sesgo refleja un prejuicio social más amplio: el conjunto de datos de capacitación del modelo solo comprende datos disponibles públicamente, lo que significa que pasa por alto a las familias que pueden pagar proveedores de atención privados. De manera similar, en el cuidado de la salud, aparece el software de IA para detectar melanoma es menos probable que funcione en personas con piel más oscura ya que muchos de los conjuntos de datos utilizados para entrenar este software utilizan imágenes de Europa, América del Norte y Oceanía exclusivamente.
En un contexto británico, un estudio respaldado por el gobierno del Reino Unido publicado en el British Medical Journal en 2022 encontró que Los modelos de IA creados para identificar a aquellas personas con alto riesgo de enfermedad hepática a partir de análisis de sangre tienen el doble de probabilidades de pasar por alto la enfermedad en mujeres que en hombres. Y finalmente, un estudio de UC Berkeley de 2019 descubrió que la IA solía asignar la atención de los pacientes asignada los pacientes de raza negra tienen puntajes de riesgo más bajos que los pacientes de raza blanca, a pesar de que los pacientes de raza negra eran estadísticamente más propensos a tener condiciones comórbidas y, por lo tanto, experimentan niveles de riesgo más altos.
Como resultado de estas desigualdades, las empresas podría correr el riesgo de sufrir graves daños a la reputación. De hecho, una encuesta reciente de los jefes de TI del Reino Unido y EE. UU. encontró que el 36 % de las empresas se vio afectada negativamente por el sesgo de la IA, lo que resultó en la pérdida de ingresos y clientes. La misma encuesta encontró que la pérdida de confianza del cliente se considera el principal riesgo que surge del sesgo de la IA, con más de la mitad (56 por ciento) de los ejecutivos citándolo.
Mientras que algunos creen que ChatGPT tiene el potencial de debilitar el dominio de Google en el espacio de los motores de búsqueda, o incluso usurpar a Google por completo; casos como el estudio de Berkeley ponen esto en duda. De hecho, el jefe de IA de Google, Jeff Dean, ha descartado la amenaza potencial de ChatGPT en este sentido, que apunta a una confianza generalizada y preexistente en la integridad de los resultados de búsqueda de Google.
Abordar el sesgo de la IA
Eliminar los sesgos presentes en los juicios humanos es una tarea abrumadora y, como han sugerido los científicos sociales, el sesgo puede ser una característica inevitable de los cerebros. Afortunadamente, el sesgo en los conjuntos de datos se puede reducir y mitigar.
Los científicos de datos deben estar capacitados para seleccionar mejor los datos que utilizan y para garantizar que se sigan prácticas éticas al recopilar y limpiar estos datos. También deben esforzarse por preservar y promover datos de alta calidad.
En cuanto a la subrepresentación de grupos particulares, la mejor solución aquí es la transparencia. Al garantizar que los datos estén”abiertos”y disponibles para la mayor cantidad posible de científicos de datos, podemos garantizar que grupos de personas más diversos puedan probar los datos y señalar los sesgos inherentes. Usando estas experiencias, también podemos construir modelos de IA que’entrenen al entrenador’, por así decirlo, cuando se trata de identificar datos sesgados.
Yendo un paso más allá, también sería útil eliminar otros datos que se correlacionan con información protegida, como códigos postales, que podrían usarse para excluir ciertos datos demográficos.
Un enfoque holístico
El sesgo de la IA puede tener graves consecuencias para las empresas y, como hemos visto, esas consecuencias pueden extenderse fácilmente a la sociedad en general. Si las consecuencias son una desconfianza general hacia la IA; malas decisiones comerciales; o decisiones que perjudican el bienestar de comunidades enteras, toda la sociedad debe unirse para resolver el sesgo de la IA.
Corresponde a los científicos de datos, líderes empresariales, académicos y agencias gubernamentales trabajar juntos: compartir datos de forma libre y abierta. para llegar a un punto en el que podamos depositar una mayor confianza en la IA. En pocas palabras, el sesgo de la IA es un problema demasiado complicado y demasiado importante para abordarlo de otra manera.
Crédito de la imagen: Wayne Williams
Ravi Mayuram es CTO , Couchbase.