EMOLTV

Seúl acogerá una cumbre clave para la regulación global de la Inteligencia Artificial: Los principales puntos y riesgos a discutir

Mañana iniciarán reuniones en la capital surcoreana, donde líderes globales abordarán los desafíos de esta tecnología. Tras críticas por la falta de acuerdos en una reunión previa en el Reino Unido, este encuentro busca establecer directrices claras y responsables, enfocándose en proteger a la sociedad de abusos y errores.

20 de Mayo de 2024 | 16:11 | Por AP / Equipo Multimedia, Emol.
Corea del Sur se prepara para acoger una mini cumbre esta semana sobre los riesgos y la regulación de la inteligencia artificial, continuando con una iniciativa lanzada en una reunión inaugural en Gran Bretaña el año pasado que atrajo a destacadas figuras tecnológicas, investigadores y funcionarios. Este evento en Seúl busca avanzar en los esfuerzos para controlar las amenazas emergentes de estos sistemas avanzados. Aquí te explicamos lo que necesitas saber sobre la Cumbre de Seúl y los desafíos de seguridad relacionados.

    Otros esfuerzos internacionales

  • La cumbre de Seúl es uno de los muchos esfuerzos globales para crear barreras de seguridad para la tecnología que avanza rápidamente y que promete transformar muchos aspectos de la sociedad, pero también ha suscitado preocupaciones sobre nuevos riesgos tanto para la vida cotidiana como sesgo algorítmico que distorsiona los resultados de búsqueda y potenciales amenazas existenciales para la humanidad.
  • En la cumbre del Reino Unido de noviembre, celebrada en una antigua base secreta de descifrado de códigos de guerra en Bletchley al norte de Londres, investigadores, líderes gubernamentales, ejecutivos tecnológicos y miembros de grupos de la sociedad civil, muchos con puntos de vista opuestos sobre la IA, se reunieron en conversaciones a puerta cerrada. El CEO de Tesla, Elon Musk y el CEO de OpenAI, Sam Altman, se mezclaron con políticos como el Primer Ministro Británico Rishi Sunak.
  • Delegados de más de dos docenas de países incluyendo a los EE.UU. y China firmaron la Declaración de Bletchley, acordando trabajar juntos para contener los riesgos potencialmente "catastróficos" planteados por los avances galopantes en inteligencia artificial.
  • En marzo, la Asamblea General de la ONU aprobó su primera resolución sobre inteligencia artificial, apoyando un esfuerzo internacional para asegurar que la poderosa nueva tecnología beneficie a todas las naciones, respete los derechos humanos y sea "segura, protegida y confiable".
  • A principios de este mes, los EE.UU. y China tuvieron sus primeras conversaciones de alto nivel sobre inteligencia artificial en Ginebra para discutir cómo abordar los riesgos de la tecnología de rápida evolución y establecer estándares compartidos para gestionarla. Allí, los funcionarios estadounidenses expresaron preocupaciones sobre el "uso indebido de la IA" por parte de China, mientras que los representantes chinos reprendieron a los EE.UU. por "restricciones y presión" sobre la inteligencia artificial, según sus gobiernos.
  • AP

    ¿Qué se discutirá en la cumbre de Seúl?

  • La reunión del 21 al 22 de mayo es coorganizada por los gobiernos de Corea del Sur y el Reino Unido.
  • El primer día, martes, los presidentes Yoon Suk Yeol y Rishi Sunak se reunirán virtualmente con líderes. Algunos líderes de la industria global han sido invitados para proporcionar actualizaciones sobre cómo han estado cumpliendo los compromisos hechos en la cumbre de Bletchley para asegurar la seguridad de sus modelos de IA.
  • El segundo día, los ministros digitales se reunirán en persona, organizada por el Ministro de Ciencia de Corea del Sur, Lee Jong-ho y la Secretaria de Tecnología de Gran Bretaña, Michelle Donelan. Los participantes compartirán las mejores prácticas y planes de acción concretos. También compartirán ideas sobre cómo proteger a la sociedad de los impactos negativos potenciales de la IA en áreas como el uso de energía, los trabajadores y la proliferación de desinformación y malinformación, según los organizadores.
  • La reunión ha sido denominada una mini cumbre virtual, sirviendo como una reunión intermedia hasta una edición completa en persona que Francia se ha comprometido a celebrar.
  • La reunión de los ministros digitales incluirá a representantes de países como Estados Unidos, China, Alemania, Francia y España y compañías incluyendo al creador de ChatGPT, OpenAI, Google, Microsoft y Anthropic.
  • EFE

    ¿Qué progresos han habido?

  • El acuerdo alcanzado en la reunión del Reino Unido fue poco detallado y no propuso una forma de regular el desarrollo de la IA.

    “Estados Unidos y China asistieron a la última cumbre. Pero cuando observamos algunos principios anunciados después de la reunión, fueron similares a lo que ya se había anunciado después de algunas reuniones de la ONU y la OCDE”, dijo Lee Seong-yeob, profesor en la Escuela de Posgrado de Gestión de Tecnología de la Universidad de Corea en Seúl. "No hubo nada nuevo”.

    Es importante celebrar una cumbre global sobre los problemas de seguridad de la IA, dijo, pero será "considerablemente difícil" que todos los participantes lleguen a acuerdos ya que cada país tiene diferentes intereses y diferentes niveles de tecnologías e industrias de IA domésticas.
  • La reunión se está celebrando mientras Meta, OpenAI y Google lanzan las últimas versiones de sus modelos de IA.
  • La Cumbre original de Seguridad de la IA fue concebida como un lugar para idear soluciones para los llamados riesgos existenciales planteados por los modelos de "fundación" más poderosos que sustentan sistemas de IA de propósito general como ChatGPT.
  • El pionero informático Yoshua Bengio, apodado uno de los “padrinos de la IA”, fue seleccionado en la reunión del Reino Unido para liderar un panel de expertos encargado de redactar un informe sobre el estado de la seguridad de la IA. Una versión interina del informe, publicada el viernes para informar las discusiones en Seúl, identificó una variedad de riesgos planteados por la IA de propósito general, incluido su uso malicioso para aumentar la “escala y sofisticación” de fraudes y estafas, potenciar la propagación de desinformación, o crear nuevas armas biológicas.

    Asimismo, los sistemas de IA que funcionan mal podrían propagar sesgos en áreas como la atención médica, la contratación de personal y los préstamos financieros, mientras que el potencial de la tecnología para automatizar una amplia gama de tareas también plantea riesgos sistémicos para el mercado laboral, dijo el informe.
  • Corea del Sur espera usar la cumbre de Seúl para tomar la iniciativa en la formulación de gobernanza y normas globales para la IA. Pero algunos críticos dicen que el país carece de infraestructura de IA avanzada suficiente para desempeñar un papel de liderazgo.
EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?