MOUNTAIN VIEW.- Hace un par de años, una organización decidió poner a prueba a un grupo de personas al que se le contaba una situación en que un padre llegaba con el hijo a un centro asistencial y el médico a cargo le decía que no podía atenderlo, porque el paciente era su hijo. Muchos no lograron entender que el médico era la madre del niño. Este año, la inteligencia artificial que Google tiene en su sistema de correos electrónicos, Gmail, vivió algo similar.
Smart Compose como se llama oficialmente el servicio que ofrece esta plataforma de mensajería a sus usuarios para responder rápidamente los correos electrónicos con frases prefabricadas y ofrecidas en contexto de lo que se va escribiendo, así lo describe
El problema fue cuando se debió enfrentar a un mensaje enviado a un tercero sobre una reunión que tendría con una inversionista y la inteligencia artificial detrás del producto decidió utilizar pronombres masculinos para referirse a esta persona, asumiendo que era hombre.
Esta situación ocurrió en enero a un ingeniero dentro de la firma cuando escribió "me estoy reuniendo con un inversionista la próxima semana" (en inglés, en género neutro) y Smart Compose decidió sugerir la frase "¿quieres juntarte con él?" (con el pronombre masculino).
Paul Lambert, el jefe de producto de Gmail, decidió hacer público este problema durante la semana en una conversación Reuters detalló que existe un universo de 1,5 mil millones de usuarios de la plataforma y que la herramienta es utilizada en el 11% de los correos electrónicos enviados.
A pesar de que el equipo intentó diversas formas de solucionar este problema, según relata Lambert, ninguna de ellas entregó los resultados esperados, por lo que optaron por eliminar todo signo de género.
De acuerdo a los reportes, Google no quería que existiese la posibilidad de que la tecnología pudiese predecir de manera incorrecta la identidad de género de alguien u ofender a los usuarios.