La nueva Ley de Inteligencia Artificial de la Unión Europea

Se ha cumplido aproximadamente un año desde que la Comisión Europea presentó el esquema de lo que posiblemente será uno de los marcos legales más influyentes a nivel mundial: la Ley de Inteligencia Artificial de la Unión Europea. Según la Fundación Mozilla, este proceso aún está en marcha y es el momento adecuado para involucrarse activamente en el esfuerzo por dar forma a su enfoque.

El objetivo declarado de la Fundación Mozilla es trabajar para garantizar que Internet siga siendo un recurso público abierto y accesible para todos. Desde 2019, la Fundación Mozilla ha puesto un énfasis significativo en sus programas de promoción de la salud en Internet en el ámbito de la Inteligencia Artificial.

Nos hemos reunido con el director ejecutivo de la Fundación Mozilla, Mark Surman, y el principal investigador político, Maximilian Gahntz, para dialogar sobre el enfoque y la postura de Mozilla en relación con la Inteligencia Artificial, los aspectos claves sobre la nueva Ley de Inteligencia Artificial de la Unión Europea y cómo funcionará en la práctica, así como las recomendaciones de Mozilla para mejorarlo y las formas en que todos pueden participar en el proceso.

La Ley de Inteligencia Artificial de la Unión Europea es relevante incluso para quienes no residen en la UE

En 2019, Mozilla identificó la Inteligencia Artificial como un nuevo desafío para la salud de Internet. La razón es que la Inteligencia Artificial toma decisiones por nosotros y sobre nosotros, pero no siempre con nuestra participación: puede determinar qué contenido consumimos, qué anuncios vemos o si cumplimos con los requisitos para un préstamo.

Las decisiones que toma la Inteligencia Artificial tienen el potencial de beneficiar a la humanidad pero también de perjudicarla, como señala Mozilla. La Inteligencia Artificial puede amplificar los sesgos y la discriminación históricos, priorizar el lucro sobre el bienestar de los usuarios y fortalecer aún más el poder de las grandes tecnológicas, marginando a las personas.

"La confiabilidad de la Inteligencia Artificial ha sido crucial para nosotros en los últimos años porque los datos y el conocimiento necesarios, y lo que hoy entendemos como Inteligencia Artificial, son una parte central técnica y social del entramado de Internet, y de cómo Internet se entrelaza con la sociedad y nuestras vidas", destacó Surman.

A medida que la Inteligencia Artificial se vuelve cada vez más omnipresente en nuestras vidas, Mozilla está de acuerdo con la Unión Europea en la necesidad de un cambio en las normas y regulaciones que rigen este ámbito, según escribe Gahntz en La respuesta de Mozilla a la Ley de Inteligencia Artificial de la Unión Europea.

Un punto importante a considerar sobre la nueva Ley de Inteligencia Artificial de la Unión Europea es que no se limita exclusivamente a organizaciones o ciudadanos con sede en la UE. Sus implicaciones se sentirán en todo el mundo de manera similar al efecto que tuvo el RGPD.

La Ley de Inteligencia Artificial de la Unión Europea se aplica a los usuarios y proveedores de sistemas de Inteligencia Artificial ubicados dentro de la UE, a los proveedores establecidos fuera de la UE que son la fuente de comercialización o puesta en funcionamiento de un sistema de Inteligencia Artificial dentro de la UE, y a los proveedores y usuarios de sistemas de Inteligencia Artificial establecidos fuera de la UE cuyos resultados generados por el sistema se utilicen en la UE.

Esto implica que las organizaciones que desarrollen e implementen sistemas de Inteligencia Artificial deberán cumplir con la nueva ley o retirarse por completo del mercado de la UE. No obstante, existen algunas diferencias entre la Ley de Inteligencia Artificial de la Unión Europea y el RGPD, pero abordaremos este tema más adelante.

regulaciones.jpg

 

Como ocurre con cualquier regulación, la Ley de Inteligencia Artificial de la UE navega entre los intereses comerciales y de investigación, y las preocupaciones de los ciudadanos.

Por ra2 estudio – Shutterstock

Otro punto crucial acerca de la nueva Ley de Inteligencia Artificial de la Unión Europea es que aún se encuentra en proceso y pasará un tiempo antes de su entrada en vigor. Su trayectoria inició con la formación de un grupo de expertos de alto nivel que, como mencionó Surman, coincidió con el enfoque de Mozilla en la Inteligencia Artificial confiable. Mozilla ha estado monitoreando de cerca la evolución de esta ley desde 2019.

Según lo explicado por Gahntz, desde que se publicó el primer borrador de la Ley de Inteligencia Artificial de la UE en abril de 2021, todos los involucrados en el proceso se han estado preparando para participar en él. El Parlamento de la UE debió decidir qué comités y qué personas formarían parte de esos comités, y las organizaciones de la sociedad civil tuvieron la oportunidad de revisar el texto y elaborar sus posturas.

Actualmente nos encontramos en una fase emocionante, como destacó Gahntz. Es en este momento en el que el Parlamento de la UE está delineando su posición, considerando las contribuciones recibidas de los comités designados y de terceros. Una vez que el Parlamento Europeo haya definido su concepción de Inteligencia Artificial confiable, presentará sus propuestas sobre cómo modificar el borrador original.

Los Estados miembros de la UE seguirán el mismo proceso, lo que conducirá a una ronda final de negociaciones entre el Parlamento, la Comisión y los Estados miembros, momento en el cual la Ley de Inteligencia Artificial de la UE se convertirá en ley. Este es un camino largo y lleno de obstáculos, y según Gahntz, se estima un plazo de al menos un año, más un periodo de transición entre su aprobación y su entrada en vigor.

En el caso del RGPD, el periodo de transición fue de dos años. Por lo tanto, es probable que la nueva Ley de Inteligencia Artificial de la Unión Europea no entre en vigencia antes de 2025.

Definición y clasificación de sistemas de Inteligencia Artificial

Antes de adentrarnos en los detalles de la nueva Ley de Inteligencia Artificial de la Unión Europea, es importante detenerse y reflexionar sobre a qué se aplica exactamente. Dado que no existe una definición universalmente aceptada de Inteligencia Artificial, la ley proporciona un anexo que especifica las técnicas y enfoques comprendidos en su ámbito de aplicación.

Según lo señalado por el Instituto de Ética de la Inteligencia Artificial de Montreal, la Comisión Europea ha elegido una definición amplia y neutral de sistemas de Inteligencia Artificial, refiriéndose a ellos como software "que se desarrolla utilizando una o más de las técnicas y enfoques enumerados en el Anexo I y que puede, para un conjunto específico de objetivos definidos por humanos, producir resultados como contenido, predicciones, recomendaciones o decisiones que influyen en los entornos con los que interactúan".

Las técnicas mencionadas en el anexo de la Ley de Inteligencia Artificial de la Unión Europea abarcan tanto enfoques de aprendizaje automático como enfoques basados en reglas y conocimientos. Son muy diversos, llegando al extremo de representar.críticas han surgido por la propuesta de "regular el uso de la estimación bayesiana". Navegar habilidosamente entre las necesidades empresariales e investigativas y las preocupaciones de los ciudadanos es un equilibrio delicado, y estas afirmaciones parecen no comprender la esencia de la filosofía detrás de la propuesta: el enfoque basado en el riesgo.

En la Ley de IA de la UE, se categorizan los sistemas de IA en 4 grupos según el riesgo percibido que representan: los sistemas de riesgo inaceptable están completamente prohibidos (con algunas excepciones), los de riesgo elevado están sujetos a normas de trazabilidad, transparencia y solidez, los de riesgo limitado requieren transparencia por parte del proveedor y los de riesgo mínimo no tienen requisitos establecidos.

Por lo tanto, no se trata de regular técnicas específicas, sino más bien de regular la aplicación de esas técnicas en determinados contextos según el riesgo que representen dichas aplicaciones. Respecto a las técnicas, se destaca en la propuesta que pueden ser necesarias adaptaciones con el tiempo para mantenerse al día con la evolución del campo.

Quedan excluidos de la Ley de IA de la UE los sistemas de IA utilizados exclusivamente con fines militares. Asimismo, las autoridades públicas de terceros países y organizaciones internacionales que empleen sistemas de IA en el marco de acuerdos internacionales de cooperación judicial y policial con la UE o alguno de sus Estados miembros también quedan exentas de dicha ley.

Banderas de la Unión Europea

 

En la Ley de IA de la UE, los sistemas de IA se clasifican en 4 categorías según el riesgo percibido que representan.

Getty Images/iStockphoto

Las aplicaciones de inteligencia artificial que manipulan el comportamiento humano para privar a los usuarios de su libre albedrío, así como los sistemas que permiten el seguimiento social por parte de los Estados miembros de la UE, se consideran de riesgo inaceptable y están completamente vetados.

Los sistemas de riesgo elevado incluyen la identificación biométrica, el control de infraestructuras críticas (agua, energía, etc.), sistemas de IA para entidades educativas o para la gestión de recursos humanos potenciales, y las aplicaciones de IA para el acceso a servicios esenciales (créditos bancarios, servicios públicos, prestaciones sociales, imparcialidad, etc.), uso en operaciones policiales, así como para la gestión de la migración y el control fronterizo.

No obstante, la aplicación de la identificación biométrica contempla algunas excepciones, como la búsqueda de menores desaparecidos o la localización de sospechosos en casos de terrorismo, trata de personas o pornografía infantil. Según la Ley de IA de la UE, los sistemas de riesgo elevado deben ser registrados en un registro mantenido por la Comisión Europea.

Los sistemas de riesgo limitado en su mayoría comprenden diversos chatbots, y su principal requisito es la transparencia. Por ejemplo, si los usuarios interactúan con un chatbot, se les debe informar de esta condición para que puedan decidir si continuar o no.

Por último, según la Comisión, los sistemas de IA que no representan un riesgo para los derechos de los ciudadanos, como los filtros de spam o juegos, quedan exentos de la regulación obligatoria.

La Ley de IA de la UE como vía hacia una IA confiable

El enfoque basado en el riesgo para la regulación de la IA en la UE recuerda en cierta medida al sistema de etiquetado de eficiencia energética de electrodomésticos en la Unión Europea. Los dispositivos se clasifican en función de su eficiencia energética, con etiquetas que van desde la A (mejor) hasta la G (peor).

No obstante, existen diferencias importantes. La distinción clave radica en que, si bien las etiquetas energéticas están destinadas a la visualización y consideración de los consumidores, la evaluación de riesgos de los sistemas de inteligencia artificial no tiene el mismo fin. Sin embargo, si Mozilla tiene éxito, esto podría cambiar con la implementación de la Ley de IA de la UE.

Aunque establecer analogías es interesante, lo verdaderamente crucial aquí es que el enfoque basado en el riesgo busca minimizar el impacto de la regulación en aquellos que desarrollan e implementan sistemas de IA que representan poca o ninguna preocupación, afirmó Gahntz.

"El objetivo es focalizarse en las áreas problemáticas, donde se introducen riesgos para la seguridad, los derechos y la privacidad de las personas, entre otros. Esa es la parte en la que queremos concentrarnos, ya que la regulación no es un fin en sí misma.

Buscamos lograrlo a través de nuestras recomendaciones y nuestro trabajo de promoción. Aquellas secciones del reglamento que se centran en mitigar o prevenir la aparición de riesgos se fortalecen en la versión final de la Ley de IA de la UE.

Se pueden establecer numerosas similitudes con otros enfoques basados en el riesgo que se observan en las leyes y regulaciones europeas en diversas áreas. No obstante, es esencial considerar los riesgos específicos de cada caso de uso. En resumen, se trata de responder a la pregunta de cómo garantizar la fiabilidad de la IA", resaltó Gahntz.

Gahntz y Surman enfatizaron que las recomendaciones de Mozilla se han elaborado con minuciosidad y la debida diligencia requerida en este proceso, con el fin de asegurar que nadie resulte perjudicado y que la IA sea un beneficio neto para todos.

Continuaremos con un análisis detallado de las recomendaciones de Mozilla para mejorar la Ley de IA de la UE, así como la filosofía subyacente de la IA confiable y la teoría del cambio de la IA, y la forma de participar en la discusión en la parte 2 de este artículo.

¿Nos apoyarás hoy?

Creemos que todos merecen entender el mundo en el que viven. Este conocimiento ayuda a crear mejores ciudadanos, vecinos, amigos y custodios de nuestro planeta. Producir periodismo explicativo y profundamente investigado requiere recursos. Puedes apoyar esta misión haciendo una donación económica a Gelipsis hoy. ¿Te sumarás a nosotros?

Suscríbete para recibir nuestro boletín:

Recent Articles

Related Stories

DEJA UN COMENTARIO

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí