Análisis de la Propuesta de Regulación de la IA de la UE - Impacting Digital

La inteligencia artificial (IA) es una tecnología en constante y rápida evolución que puede traer numerosos beneficios a la sociedad y a la economía en diversos sectores industriales. Esta tecnología puede mejorar procesos, optimizar operaciones y permitir predicciones eficientes. Sin embargo, aunque la IA es altamente prometedora, muchos de sus elementos y técnicas también pueden tener consecuencias negativas para la sociedad.

En este contexto, la Unión Europea (UE) ha tomado la iniciativa de proponer una legislación. Esta está destinada a garantizar el uso ético de la IA, salvaguardando los derechos fundamentales y los principios de la UE.

I. El Contexto Regulador


La última década ha sido testigo del rápido avance tecnológico de la inteligencia artificial, especialmente con la aparición de la IA generativa. Esta tecnología incluye modelos de aprendizaje profundo capaces de crear contenido similar al producido por los humanos utilizando tecnologías como el procesamiento de lenguaje natural (NLP). Ejemplos clave de estos modelos incluyen ChatGPT, Midjourney y Bard.

En este contexto, los desafíos que surgieron con el desarrollo de los sistemas de IA incluyeron el sesgo. Este sesgo se caracteriza por una tendencia a producir resultados a favor o en contra de una persona, objeto o posición. Y la opacidad, donde los sistemas de IA se vuelven demasiado complejos para la comprensión humana. Esto demostró la necesidad de regular la IA con mecanismos que creen algoritmos más transparentes y seguros, éticos y confiables. El objetivo es garantizar el buen funcionamiento del mercado interno.

II. Análisis de la propuesta de Reglamento


II.II. Objetivos de la propuesta de Regulación de la IA


Entre los principales objetivos de la Propuesta de Regulación de la IA se encuentran:

  • Garantizar que los sistemas de IA colocados en el mercado sean seguros y respeten los derechos fundamentales.
  • Proporcionar certeza jurídica para facilitar las inversiones y la innovación en el campo.
  • Hacer que la supervisión de los sistemas de IA sea más eficiente.
  • Facilitar el desarrollo de un mercado único para los sistemas de IA para evitar la fragmentación del mercado.

II.II. Ámbito de aplicación de la propuesta de Regulación de la IA


En cuanto al alcance de aplicación, la Propuesta sigue un enfoque que clasifica los sistemas de IA en categorías de riesgo para los derechos fundamentales. Así, los sistemas de IA se clasifican en cuatro categorías: riesgo inaceptable (y por lo tanto prohibidos), riesgo alto, riesgo limitado y riesgo mínimo.

Los sistemas de IA que representan un riesgo inaceptable están prohibidos, ya que plantean una violación significativa de la salud, la seguridad u otros derechos fundamentales. Estos incluyen sistemas subliminales, manipuladores o explotadores que causan daño. También sistemas de puntuación social gubernamental; y sistemas de identificación biométrica en tiempo real en espacios públicos.

Los sistemas de IA de alto riesgo están permitidos, siempre que cumplan ciertos requisitos, principalmente relacionados con la transparencia. Las obligaciones incluyen evaluaciones de cumplimiento, que funcionan como evaluaciones de impacto de algoritmos; mantenimiento de sistemas de gestión de riesgos; gobernanza; pruebas rigurosas y mantenimiento de documentación técnica y registros.

Finalmente, los sistemas de IA que representan un riesgo mínimo tienen menos requisitos, que también están relacionados con la transparencia. Estos sistemas deben alertar a los usuarios de que están interactuando con una máquina, asegurando que los usuarios sean conscientes de la naturaleza automatizada de la interacción y les permitan tomar decisiones informadas sobre cómo proceder. Además, estos sistemas serían responsables de aclarar si están utilizando tecnologías como el reconocimiento de emociones o la clasificación biométrica y notificar a los usuarios cuando el contenido de imágenes, audio o video haya sido creado o manipulado por la IA para representar información falsa.

Además, es importante señalar que la regulación tendría un alcance más allá de las fronteras de la Unión Europea, lo que significa que cualquier sistema de IA que produzca resultados utilizados dentro del territorio de la UE estaría sujeto a ella. Esto implica que tanto las personas como las empresas ubicadas en la Unión Europea que introduzcan un sistema de IA en el mercado europeo o lo utilicen dentro del territorio de la UE también estarían sujetas a las regulaciones.

III. Próximos Pasos


La Propuesta de Regulación de la IA es un hito regulatorio global. Aunque aún no ha sido aprobada, las organizaciones deben comenzar a adaptarse para poder implementar sus productos o servicios de conformidad con las nuevas reglas que surgirán.

Es un hecho que los sistemas de IA seguirán desarrollándose; sin embargo, las organizaciones deberán implementar sistemas de gestión de riesgos, evaluaciones de cumplimiento y un sistema de gobernanza interna para la IA.

Varias organizaciones ya han comenzado a desarrollar dichos sistemas, como la Organización Internacional de Normalización (ISO) y el Instituto Nacional de Normas y Tecnología de los Estados Unidos (NIST), y pueden servir como guías para definir estándares organizativos.

IV. Conclusión


Regular la inteligencia artificial en Europa es un esfuerzo multifacético que equilibra la necesidad de innovación con la necesidad de proteger los derechos individuales, la privacidad y los principios éticos. Reconoce el potencial transformador de la IA al mismo tiempo que aborda los riesgos potenciales que representa para la sociedad. Aunque puede llevar algún tiempo ser aprobada, la regulación ya debe ser tenida en cuenta para el futuro de la IA.