EMOLTV

Cómo se perfila la normativa de la UE para herramientas de inteligencia artificial como ChatGPT

La Eurocámara ha avanzado en la redacción de distintas regulaciones que afectarán a estos sistemas y que, de aprobarse, podrían significar millonarias multas para los desarrolladores que no las cumplan.

11 de Mayo de 2023 | 16:57 | EFE / Equipo Multimedia Emol

Las comisiones de Mercado Interior y de Libertades Civiles del Parlamento Europeo acordaron hoy su posición para negociar nuevas normas para mitigar los posibles riesgos que pueden generar los sistemas tecnológicos como ChatGPT, entre los que se incluyen la distribución de noticias falsas o la violación de los derechos de autor. Se trata de una serie de normas que se incluyen en una ley sobre la inteligencia artificial que se negocia en Bruselas y que está en proceso de legislarse para la Unión Europea.

    Puntos clave de la normativa europea

  • Los desarrolladores de estos sistemas tecnológicos que quieran introducirlos en el mercado tendrán que demostrar que han reducido los riesgos que puedan generar a la salud, a los derechos fundamentales y al sistema democrático, y someterse además al análisis de expertos independientes.
  • Los usuarios de sistemas de inteligencia artificial que generen o manipulen videos, imágenes o sonidos que puedan inducir erróneamente a otras personas a pensar que son auténticos o verídicos, deberán informar al resto de ciudadanos que el contenido es falso.
  • Los creadores de la tecnología tendrán que publicar "un resumen suficientemente detallado" sobre los datos protegidos con derechos de autor que utilizan para entrenar a los sistemas de inteligencia artificial.
  • Las herramientas se tendrán que diseñar de tal forma que a lo largo de su vida útil tengan "niveles apropiados" de rendimiento, previsibilidad, interpretabilidad, corregibilidad, seguridad y ciberseguridad.
  • Los legisladores europreos se han apresurado para normar plataformas como ChatGPT. | AP

  • La ley de inteligencia artificial prohíbe los sistemas de vigilancia masiva en tiempo real en espacios públicos -salvo para prevenir delitos y localizar a posibles víctimas- y veta los modelos que se sirvan de técnicas subliminales para alterar de manera "sustancial" el comportamiento de una persona, sin que sea consciente de ello.
  • Se califica de alto riesgo a toda una serie de sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE. Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o los que emplee la policía de control de fronteras para controlar, vigilar o procesar datos para predicción de movimientos migratorios.
  • Las empresas que incumplan la normativa podrán pagar una multa de hasta el 7% de su facturación anual mundial.
  • El pleno del Parlamento Europeo confirmará su posición negociadora para esta norma el próximo mes de junio y la Eurocámara tendrá que negociar después con la Comisión Europea y el Consejo de la UE el texto definitivo de la ley de inteligencia artificial.
EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?