La proliferación de la inteligencia artificial es un tema que preocupa a los expertos por diversas aristas, desde el control de las máquinas hasta el impacto que podrían tener en la sociedad, sin embargo, un reciente estudio ha puesto sobre la mesa una nueva perspectiva de análisis a través de la discriminación hacia grupos minoritarios que puedan adquirir estos sistemas debido al "entrenamiento" que reciben.
El estudio, realizado por el AI Now Institute, un organismo dedicado a esta tecnología, alerta que 80% de los "profesores" de las inteligencias artificiales son hombres blancos, mientas que sólo el 15% y el 10% de los investigadores en estos temas en Facebook y Google, respectivamente, son mujeres.
De acuerdo a los expertos, esta situación no sólo representa un potencial sesgo en la "educación" de los sistemas, sino que además puede traer consecuencias para diversos grupos tratados como minoritarios, entre los que entra la gente de color, los pueblos originarios, las diversidades sexuales y, también, una discriminación de género.
Esto porque, al estar siendo configuradas por un grupo tan poco diverso, frecuentemente el resultado termina presentando perspectivas blancas masculinas que después se aplican en herramientas que afectan a otros grupos de personas. Precisamente, no son los hombres blancos "los que están siendo afectados por estos sistemas", explica la codirectora del AI Now Institute, Meredith Whittaker, a The Verge.
¿La solución? Según los expertos, es necesario que las compañías disgreguen sus datos según género y etnia, lo que podría ayudar a entregar una perspectiva más inclusiva a las máquinas.
"La crisis de diversidad de la inteligencia artificial está muy bien documentada y ampliamente investigada (...) puede ser vista en lugares de trabajo que no son equitativos, atravesando la industria y la academia, en la disparidad de contratación o ascensos laborales, así llega a las tecnologías una inteligencia artificial que luego refleja una versión amplificada de los estereotipos", lamenta la ingeniera.
Un problema en todos lados
En una charla organizada por el Instituto Milenio Fundamento de los Datos (IMFD), el investigador del Departamento de Ciencia de la Computación de la Universidad de Chile, Jorge Pérez, también profundizó en esta situación ampliamente conocida. A través de un trabajo con vectores y análisis de palabras que fueron enseñadas a un sistema extraídas de los artículos publicados en Wikipedia.
"Una misión para los científicos es evitar enseñarle a las máquinas con sesgos", explicó luego de mostrar, con ejemplos, cómo algunas palabras se contextualizaban según los textos en los que se encontraban para dar como resultado relaciones que claramente tenían problemas de discriminación.
Así, relacionaba que cuando a la palabra "mujer" se le alejaba lo más posible de la palabra "sexo", el sistema arrojaba "empresaria". Otro caso era cuando, en el mismo ejercicio se utilizaban los conceptos "hombre" y "ciencia", el resultado incluía "delincuente" y "taxista" entre las respuestas.
Esto, tal como detalló el miembro del IMFD, no es un problema de los códigos, las redes neuronales digitales o los sistemas, sino del contexto en que extraen sus "conocimientos" y la forma en que deben ser aplicados.