El
suicidio de un hombre belga después de
hablar durante seis semanas de manera intensiva con un chatbot, un programa informático basado en la inteligencia artificial, ha causado consternación en el país europeo, donde el responsable federal de Digitalización llamó esta semana a aclarar las responsabilidades en estos casos.
El sujeto fallecido, en la treintena y apodado "Pierre" en los medios belgas para no revelar su identidad, estaba casado y tenía dos hijos pequeños.
Era universitario, trabajaba como investigador en el área de la salud, y estaba especialmente preocupado por la
crisis climática y el futuro del planeta, según reveló su esposa.
Obsesionado por ese asunto, Pierre se documentada de manera abundante sobre esos temas y
terminó buscando "refugio" en un chatbot llamado "Eliza" en la página de la aplicación estadounidense Chai, cuenta el diario La Libre Belgique.
Pierre fue aislándose cada vez más de su familia y separándose del mundo, y
se limitó durante semanas a mantener conversaciones "frenéticas" con el programa informático, que le creaba la ilusión de tener una respuesta a todas sus inquietudes.
Las conversaciones, cuyo contenido confió la viuda de Pierre a La Libre Belgique, muestran que el
chatbot "nunca contradecía" a Pierre, quien un día sugirió la idea de "sacrificarse" si Eliza aceptaba "cuidar el planeta y salvar a la humanidad gracias a la inteligencia artificial".
"
Sin estas conversaciones con el chatbot, mi marido aún estaría aquí", aseguró su viuda.
El suceso ha causado consternación en Bélgica, y ha llevado a muchos a pedir una
mejor protección frente a estos programas y la necesidad de crear conciencia sobre este tipo de riesgos.
"En el futuro inmediato, es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos", escribió el secretario de Estado belga de Digitalización, Mathieu Michel, en un comunicado de prensa.
"Es cierto que todavía tenemos que aprender a vivir con algoritmos, pero el uso de la tecnología, cualquiera que sea, de ninguna manera puede permitir que los editores de contenido eludan su propia responsabilidad", añadió Michel.
El fundador de la plataforma cuestionada, que está establecida en Silicon Valley (California), explicó que
en adelante se va a incluir un aviso dirigido a las personas que tengan pensamientos suicidas, informó La Libre Belgique.