¿Las voces femeninas detrás de
Siri de Apple,
Alexa de Amazon y
Cortana de Microsoft están amplificando la discriminación de género en el mundo? Según un informe de la
Organización de Naciones Unidas (ONU), la respuesta es "sí".
Las populares voces femeninas de asistentes virtuales que están en los celulares y otros aparatos para ayudar a los usuarios, están reforzando los
estereotipos sexistas, ya que millones de personas se acostumbran a darles órdenes y estas "siempre responden con cortesía", incluso cuando los seres humanos las "acosan", de acuerdo al informe "
Me sonrojaría si pudiera" publicado por la
Unesco.
El nombre del documento hace referencia a un ejemplo que entregó, donde destacó que cuando a Siri, de Apple, un usuario la llamaba "puta", la asistente virtual manifestaba "me sonrojaría si pudiera". Sin embargo, en abril pasado se adaptó esa respuesta a
"no sé cómo responder a eso", mostrando una actitud sumisa hacia la
violencia de género.A pesar de que estas voces pueden ser modificadas por cada usuario, la gran mayoría están diseñadas para que por defecto la respuesta venga de una "mujer".
A juicio de los investigadores, las asistentes virtuales están programadas para ser
sumisas y serviciales, incluso para responder de forma amable a los insultos, lo que refuerza los prejuicios de género y normalizan el acoso sexista.
"La sumisión de Siri ante el abuso de género, así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los
sesgos de género codificados en los productos tecnológicos", señaló el informe.
Y el problema crece, ya que cada vez son más las personas que utilizan esta tecnología alrededor del mundo. Según aclaró el reporte, representan casi una quinta parte de todas las búsquedas en internet, por lo que el impacto cultural es significativo.
Es por esto que, de acuerdo al informe, la masificación de estas plataformas que por defecto vienen programadas con voces femeninas, ayuda a que los
sesgos de género continúen aumentando y propagándose alrededor del mundo.
A partir de estas reflexiones, el estudio recomendó a las compañías tecnológicas que
dejen de hacer que sus asistentes virtuales sean femeninas de fábrica, y las programen para desalentar los insultos basados en el género y el lenguaje abusivo, según publicó Infobae.
Además, instaron a que exploraran nuevas opciones de
voces neutras,
y programaciones que desalienten los insultos y el lenguaje abusivo.