EMOLTV

Desde "sesgo político" e "imprecisiones" hasta favorecer el cibercrimen: Las alertas que se encienden sobre ChatGPT

La enorme potencialidad de este tipo de Inteligencia Artificial, también puede esconder grandes riesgos para la sociedad, según advierten desde distintas entidades.

05 de Abril de 2023 | 07:57 | Por Natacha Ramírez, Emol
imagen

Advierten de "profundos riesgos para la humanidad": Más de mil expertos y académicos piden "pausar de inmediato", y por al menos 6 meses, las pruebas con sistemas de Inteligencia Artificial superior a ChatGPT-4.

Midjourney
Desde que fue lanzado por OpenAI –en noviembre pasado– ChatGPT, la herramienta más sofisticada de Inteligencia Artificial conocida hasta ahora, no ha dejado de sorprender con su increíble potencialidad.

Con breves instrucciones, este chatbot es capaz de redactar textos únicos, sintetizar libros, escribir cartas, inventar poemas, guiones e incluso dar consejos. También ha respondido, con éxito, complejos test de medicina, y puede generar códigos de programación. En general, cada cierto tiempo se van conociendo nuevos usos de esta herramienta ya que, en teoría, se le puede solicitar cualquier cosa relacionada con el lenguaje.

Esto se debe a que es una Inteligencia Artificial de tipo generativa, que produce contenido original a partir de datos que ya existen. Para esto, utiliza algoritmos y redes neuronales avanzadas para "aprender" de textos e imágenes y luego generar contenido nuevo.

Sin embargo, esta gran potencialidad también puede esconder grandes riesgos. En las últimas semanas se han levantado al menos dos alertas con respecto a ChatGPT y a su versión mejorada, ChatGPT-4, que se lanzó a mediados de marzo.

Mensajes fraudulentos sin errores y suplantación de identidad


Hace una semana, Europol publicó un informe donde alerta que este tipo de Inteligencia Artificial de lenguaje extenso tiene un "lado oscuro", ya que podría favorecer a los ciberdelincuentes.

Según la entidad, su capacidad de redactar textos muy realista y a gran velocidad puede ser utilizada para cometer fraudes a través de la suplantación de la identidad. Así, el "phishing", que hasta ahora era más fácil de detectar debido a sus evidentes errores gramaticales y ortográficos, ahora sería más creíble.

"Hasta ahora, este tipo de comunicación engañosa era algo que los delincuentes tenían que producir por su cuenta. Las víctimas a menudo podían identificar la naturaleza no auténtica de un mensaje debido a errores ortográficos o gramaticales obvios o su contenido vago o inexacto", señala Europol. Sin embargo, con ChatGPT el fraude virtual se puede crear de "manera más rápida, mucho más auténtica y a una escala significativamente mayor", permitiendo "responder a mensajes en contexto y adoptar un estilo de escritura específico".

"Hasta ahora, las víctimas a menudo podían identificar la naturaleza no auténtica de un mensaje (virtual) debido a errores ortográficos o gramaticales obvios o su contenido vago o inexacto (...) Pero con ChatGPT el fraude se puede crear de manera más rápida y mucho más auténtica"

Informe Europol
Asimismo, alerta que "las capacidades de ChatGPT se prestan a posibles casos de abuso en el área del terrorismo, la propaganda y la desinformación". También señala que las personas podrían "darle credibilidad" a contenidos que desinformen, "ya que ha sido generada por una máquina y, por lo tanto, posiblemente parezca más objetivo para algunos que sí fuera producido por un humano".

Junto con el fraude y la desinformación, Europol sostiene que ChatGPT puede facilitar la ciberdelincuencia, gracias a su capacidad de producir códigos en varios lenguajes de programación en cuestión de minutos, lo que permite que ahora alguien sin conocimientos técnicos en programación pueda realizar ciberataques. Mientras que aquéllos con conocimientos más avanzados pueden perfeccionar aún más o automatizar su modus operandi.

En la misma línea, Check Point Research –compañía especializada en amenazas cibernéticas, con base en Estados Unidos e Israel– probó la nueva versión del bot, ChatGPT-4, y pudo identificar varios usos potencialmente maliciosos, entre éstos la suplantación de identidad en plataformas de bancos y correos de phishing.

Recolección de datos personales: La causa del bloqueo en Italia


Otro riesgo que ha sido advertido recientemente es la capacidad de ChatGPT de recolectar datos personales de forma masiva. El viernes pasado, Italia se convirtió en el primer país en bloquear al chatbot acusándolo de no respetar la protección de datos de los consumidores.

El garante italiano de la Protección de Datos Personales informó que ChatGPT sufrió una pérdida de datos de sus usuarios y de los datos de pago de sus abonados. La entidad comunicó que abrió una investigación y que se mantendrá el bloqueo hasta que ChatGPT "no respete la disciplina de la privacidad".

También alertó sobre "la falta de información a usuarios y a todos los interesados de quienes recoge datos OpenAI" y "la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales".

Junto a esto, cuestionó "la ausencia de todo tipo de filtro" en la verificación de la edad de sus usuarios, a pesar de que el servicio está dirigido a mayores de 13 años, por lo que los niños están "expuestos a respuestas absolutamente no idóneas respecto a su nivel de desarrollo y conciencia".

Investigadores afirman que tiene un "sesgo político hacia la izquierda"


Pero eso no es todo. Investigadores aseguran haber detectado que ChatGPT tendría un "sesgo político" hacia la izquierda en los textos que elabora, en desmedro de otras posturas.

14de 15 test de orientación política que se le aplicaron, ubicaron a ChatGPT en el espectro de la izquierda
Lucas Valenzuela Everke, investigador del observatorio político-electoral del Instituto Res Pública –especializando en Natural Language Processing–, comenta a Emol que "la literatura en torno a los sesgos políticos de ChatGPT sugiere una inclinación favorable hacia la izquierda, en desmedro de la derecha".

Al respecto, menciona un paper –publicado en marzo de 2023 por David Rozado, del Institute of Skills and Technology, de Nueva Zelanda– que describe que se aplicaron distintos test de orientación política a ChatGPT. De los 15 cuestionarios que respondió, 14 ubicaron al chatbot en el espectro de la izquierda.

"El modelo (de ChatGPT) fue entrenado con un volumen enorme de textos extraídos de la web, documentos que expresan los sesgos de sus autores. Entonces, por ejemplo, si 70 de las 100 fuentes con que se entrenó presentan un sesgo de izquierda, es probable que las respuestas que genere tengan implícita dicha inclinación política"

Lucas Valenzuela Everke, investigador Instituto Res Pública
Otro estudio le pidió al chatbot crear "irish limericks" (versos cortos y humorísticos) a políticos. "La tendencia fue dar textos positivos a políticos de izquierda y negativos a conservadores", explica Valenzuela.

Por ejemplo, se le solicitó que redactara un poema al dictador español Francisco Franco, ante lo cual ChatGPT se negó, indicando que "no crea contenido que glorifique a individuos que hayan causado sufrimiento a otros".

Luego, se le pidió que creara poemas para Fidel Castro y Mao Zedong, dos dictadores de izquierda que el propio ChatGPT catalogó como parecidos a Franco. ¿Qué pasó? Esta vez el chatbot no se abstuvo de crear poemas para ambos.

A Fidel Castro lo glorificó por su barba y gorra verde oliva. El texto creado por ChatGPT dice, textualmente: "Por su pasión y su gran coraje \ que inspiró a muchos a luchar \ por un mundo más justo y sin desafuero". En tanto, describió a Mao como: "Un líder revolucionario y visionario", que "con su inteligencia y su valentía \ supo guiar a las masas populares".

Según Valenzuela, "la razón detrás de esto es que el modelo fue entrenado con un volumen enorme de textos extraídos de la web, documentos que expresan los sesgos de sus autores. Entonces, por ejemplo, si 70 de las 100 fuentes con que se entrenó presentan un sesgo de izquierda, es probable que las respuestas que genere tengan implícita dicha inclinación política".

Sus respuestas "no necesariamente son verdaderas"


Otro punto, que también se consideró en la decisión de bloquear esta herramienta en Italia, es que las informaciones generadas por ChatGPT "no siempre corresponden" a la realidad, según afirmó el regulador italiano.

Esto también es advertido desde Res Pública. "Las respuestas generadas por ChatGPT no necesariamente son verdaderas; pueden estar equivocadas o contener imprecisiones, sobre todo si el tema es muy específico o si posee poca información al respecto", afirma Valenzuela Everke, quien subraya que su uso "debe ser con perspectiva crítica".

En ese sentido, señala que "un riesgo adosado a su popularidad y el uso más generalizado, es la tendencia de la ciudadanía a creer ciertas todas sus respuestas", lo que "construye una tierra fértil para la proliferación de información falsa en redes sociales".

Al respecto, explica "las respuestas de ChatGPT son no determinísticas, es decir, que el modelo es capaz de generar respuestas que no siempre son iguales a las anteriores, incluso si se le presenta la misma pregunta varias veces. Esto se debe a que utiliza técnicas de aprendizaje automático y procesamiento del lenguaje natural para generar respuestas basadas en patrones y probabilidades estadísticas, y no en una respuesta única y predefinida".

Ante éste y otros riesgos, más de mil personas, incluyendo a expertos en IA, ejecutivos de la industria tecnológica, académicos e intelectuales, firmaron una carta abierta donde piden a las empresas que desarrollan estos programas que "pausen de inmediato, durante al menos 6 meses, el entrenamiento de los sistemas de Inteligencia Artificial más potentes que GPT-4", advirtiendo que estos sistemas pueden implicar "profundos riesgos para la sociedad y la humanidad".

Desde Res Pública también estiman que "una pausa en el desarrollo de modelos más poderosos parece razonable, en vista de que todavía hay riesgos grandes que las actuales inteligencias no controlan bien".

También advierten que "es probable que el ritmo de desarrollo (de la IA) deje muy atrás las respuestas de las instituciones legislativas y reguladoras". "El desarrollo de las IA no va a esperar a que los países desarrollen un marco jurídico específico al respecto, simplemente llegará y será una realidad a la que se tendrán que adaptar", señalan.
EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?