EMOLTV

¿Debemos temerle al desarrollo de la inteligencia artificial? Expertos debaten

Ante las últimas revelaciones sobre el avance de esta tecnología, investigadores postulan las posibles amenazas de estos sistemas,

02 de Agosto de 2017 | 14:38 | Emol
¿Debemos temerle al desarrollo de la inteligencia artificial?
Se ha desatado un poco el pánico sobre una serie de rumores y trascendidos en función de algo que no es tan dramático. [En el caso de la noticia de Facebook] estamos hablando de dos bots que fueron diseñados para interactuar y llegar a acuerdos de forma autónoma y que empezaron a decir unas frases un poco incoherentes que al parecer hacían que se siguieran entendiendo.

Estamos en una etapa de pruebas, esto no es para asustarse, no se va a acabar el mundo, nadie nos va a salir a matar por la calle, estamos muy muy lejos de eso. La inteligencia artificial es algo que hoy en día podemos ver desde respuestas en chat automatizados e incluso hay pseudo androides (...) que se pueden ver como un humano. [La inteligencia artificial] es una tecnología interesante, pero que no nos va a salir persiguiendo por la calle a matarnos, así que hay que manejar un poco las expectativas a favor y en contra de ella.
Luciano Ahumada, director de la Escuela de Ingeniería Civil en Informática y Telecomunicaciones UDP.
El problema de esta tecnología es cómo se usa y qué es lo que quieren alcanzar, el problema es que la inteligencia artificial en este minuto es que se está usando para utilizar a las personas. Uno puede ver que los teléfonos hacen cosas que a veces los usuarios no quieren que haga, entonces de alguna manera a las personas las están condicionando para que lleguen a ciertas cosas o hagan ciertas cosas a través de estos mecanismos.

Es complicada o peligrosa, porque los hombres no la utilizan bien. En la antigüedad Galileo diseñó el disparo de un proyectil y el hombre lo utilizó para la guerra. Pero bueno, la ciencia tiene su desarrollo y depende de cómo se use.

El problema está realmente en qué es lo que quieren mostrar y dónde está la tecnología. Esto de la inteligencia artificial, cerca del año 2000 se dejaron de publicar muchas cosas y seguramente esto siguió en un camino oculto por las inteligencias militares de distintos países que no dejan que se publique todo. De tal manera que esto se utilice de manera estratégica y no se sabe exactamente cuál es el punto y dónde está el desarrollo.
Francisco Watkins, académico del Departamento de Ingeniería Eléctrica de la Universidad de Santiago.
Un tema recurrente en las películas y la cultura pop tiene que ver con el riesgo de que este tipo de inteligencia se desarrolle por sí mismo, tome decisiones y compita o amenace a los humanos. Como lo que relatan películas como "Terminator" o "Matrix", donde las máquinas se rebelan y controlan el mundo. Sin embargo, en los días siguientes se descubrió que los programadores olvidaron incluir las reglas para que los bots conversaran en un lenguaje que los humanos podamos entender. Y las máquinas ajustaron su idioma para optimizar el diálogo entre ellos. Aunque pareciera que crearon su propia "jerga", estuvieron lejos aún de construir un lenguaje propio, lleno de las complejidades que eso implica. La conclusión que algunos sacan es que todavía debe pasar mucha agua bajo el puente tecnológico para que la inteligencia artificial deje de ser una herramienta y pase a equiparar a la inteligencia humana.

Donde algunos ven riesgos en el mediano plazo es en el campo del trabajo. Sin embargo, el impacto de esta amenaza dependerá de las habilidades, fortalezas, capacidades y recursos que podamos desarrollar como sociedad para enfrentarla.
Ginés Guerrero, director del Laboratorio de Supercómputación del Centro de Modelamiento Matemático de la Universidad de Chile.
La verdad es que [los investigadores que trabajamos con inteligencia artificial] creemos que existen algunas amenazas, pero son más parecidas al tipo de amenazas que tú te imaginas cuando inventas una tecnología que tiene claros usos destructivos. Nosotros creemos que hay una amenaza relacionado con que no vemos tan lejos el momento en que estas técnicas se empiecen a ocupar para hacer tecnología de guerra, pero no vemos la amenaza en que pensemos que un día escribamos un programa y que el programa se nos salga de control y que empiece a hacer cosas que nosotros no queremos que haga y que empiece a destruir cosas.

Lo que en un futuro puede que exista [...] es que vamos a ser capaces de construir aplicaciones que invadan seriamente la privacidad de las personas. Si vamos a tener acceso a videos vas a poder hacer un programa que hagan espionaje. Y después está la tecnología más agresiva que es podamos creer que tenemos la habilidad de identificar mejor a los terroristas y va a llegar un momento en que se nos va a ocurrir aplicar esto y meter esta tecnología a un avión que se maneje sólo y que empiece a matar personas. Es más bien eso lo que para mí es un temor.
Jorge Baier, académico de Ciencia de la Computación de Ingeniería UC e investigador del Núcleo Milenio del Centro para la Investigación de la Web Semántica.
EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?