La Ley de Inteligencia Artificial de la UE podría contribuir a lograr una Inteligencia Artificial confiable, según la Fundación Mozilla

Un año después de la presentación del primer borrador, los detalles sobre la Ley de Inteligencia Artificial de la UE seguían siendo escasos. A pesar de que este marco regulatorio aún no está finalizado –o mejor dicho, precisamente por esa razón– ahora es el momento de aprender más al respecto.

Previamente, cubrimos algunos datos clave sobre la Ley de Inteligencia Artificial de la UE: a quién se aplica, cuándo se promulgará y de qué se trata. Nos embarcamos en esta exploración junto con el director ejecutivo de la Fundación Mozilla, Mark Surman, y el investigador principal de políticas, Maximilian Gahntz.

Como compartió Surman, El enfoque de Mozilla en la Inteligencia Artificial surgió aproximadamente al mismo tiempo que la Ley de Inteligencia Artificial de la UE también comenzó su ciclo de vida, alrededor de 2019. Mozilla ha trabajado con personas de todo el mundo para trazar una teoría sobre cómo hacer que la Inteligencia Artificial sea más confiable, centrándose en dos resultados a largo plazo: agencia y responsabilidad.

Hoy retomamos la conversación con Surman y Gahntz. Discutimos las recomendaciones de Mozilla para mejorar la Ley de Inteligencia Artificial de la UE y cómo las personas pueden involucrarse, y la Teoría del Cambio de Inteligencia Artificial de Mozilla.

La Ley de Inteligencia Artificial de la UE es un trabajo en progreso

La Ley de Inteligencia Artificial de la UE está por llegar, ya que se espera que entre en vigor alrededor de 2025, y su impacto en la Inteligencia Artificial podría ser similar al impacto que tuvo el RGPD en la privacidad de los datos.

La Ley de Inteligencia Artificial de la UE se aplica a los usuarios y proveedores de sistemas de Inteligencia Artificial ubicados dentro de la UE, a los proveedores establecidos fuera de la UE que son la fuente de la comercialización o puesta en servicio de un sistema de Inteligencia Artificial dentro de la UE, y a los proveedores y usuarios de sistemas de Inteligencia Artificial establecidos fuera de la UE cuando los resultados generados por el sistema se utilicen en la UE.

Su enfoque se basa en una categorización de 4 niveles de los sistemas de Inteligencia Artificial según el riesgo percibido que plantean: los sistemas de riesgo inaceptables están prohibidos por completo (aunque se aplican algunas excepciones), los sistemas de alto riesgo están sujetos a reglas de trazabilidad, transparencia y solidez, los sistemas de alto riesgo están sujetos a reglas de trazabilidad, transparencia y solidez, -Los sistemas de riesgo requieren transparencia por parte del proveedor y sistemas de riesgo mínimo para los que no se establecen requisitos.

En este punto, el Parlamento de la UE está desarrollando su posición, considerando los aportes que recibe de los comités designados y de terceros. Una vez que el Parlamento de la UE haya consolidado lo que entienden bajo el término Inteligencia Artificial confiable, presentarán sus ideas sobre cómo cambiar el borrador inicial. Seguirá una ronda final de negociaciones entre el Parlamento, la Comisión y los Estados miembros, y entonces será cuando la Ley de Inteligencia Artificial de la UE se convertirá en ley.

Para influir en la dirección de la Ley de Inteligencia Artificial de la UE, ahora es el momento de actuar. Como se indica en el artículo de Mozilla de 2020 Creando Inteligencia Artificial confiable, La Inteligencia Artificial tiene un inmenso potencial para mejorar nuestra calidad de vida. Pero la integración de la Inteligencia Artificial en las plataformas y productos que utilizamos todos los días puede comprometer igualmente nuestra seguridad y privacidad. (…) A menos que se tomen medidas críticas para hacer que estos sistemas sean más confiables, la Inteligencia Artificial corre el riesgo de profundizar las desigualdades existentes.

Mozilla cree que se necesita una regulación efectiva y con visión de futuro si queremos que la Inteligencia Artificial sea más confiable. Por este motivo acogió con satisfacción las ambiciones de la Comisión Europea en su Libro Blanco sobre Inteligencia Artificial hace dos años. La posición de Mozilla es que la Ley de Inteligencia Artificial de la UE es un paso en la dirección correcta, pero también deja margen de mejora.

Las mejoras sugeridas por Mozilla han sido presentadas en una publicación de blog. Se centran en tres puntos:

  1. Garantizar la rendición de cuentas
  2. Creando transparencia sistémica
  3. Dar a las personas y a las comunidades una voz más fuerte.

Los 3 puntos focales

La rendición de cuentas consiste realmente en determinar quién debería ser responsable de qué a lo largo de la cadena de suministro de Inteligencia Artificial, como explicó Gahntz. Los riesgos deben abordarse cuando surjan; ya sea en la etapa de diseño técnico o en la etapa de implementación, añadió.

La Ley de Inteligencia Artificial de la UE impondría la mayoría de las obligaciones a quienes desarrollan y comercializan sistemas de Inteligencia Artificial de alto riesgo en su forma actual. Si bien hay buenas razones para ello, Gahntz cree que los riesgos asociados con un sistema de Inteligencia Artificial también dependen de su propósito exacto y del contexto en el que se utiliza. Quién implementa el sistema y cuál es el entorno organizacional de implementación que podría verse afectado por el uso del sistema: todas estas son preguntas relevantes.

Para contextualizar esto, consideremos el caso de un modelo de lenguaje grande como GPT-3. Podría usarse para resumir una historia corta (bajo riesgo) o para evaluar ensayos de estudiantes (alto riesgo). Las posibles consecuencias aquí difieren enormemente, y los implementadores deberían ser responsables de la forma en que utilizan los sistemas de Inteligencia Artificial, pero sin introducir obligaciones que no pueden cumplir efectivamente, argumenta Mozilla.

La transparencia sistémica va más allá de la transparencia orientada al usuario. Si bien es bueno que los usuarios sepan cuándo están interactuando con un sistema de Inteligencia Artificial, lo que también necesitamos a un nivel superior es que los periodistas, investigadores y reguladores puedan examinar los sistemas y cómo afectan a las personas y comunidades en el terreno. Dijo Gahtz.

El proyecto de ley de Inteligencia Artificial de la UE incluye un mecanismo potencialmente poderoso para garantizar la transparencia sistémica: una base de datos pública para sistemas de Inteligencia Artificial de alto riesgo, creada y mantenida por la Comisión, donde los desarrolladores se registran y proporcionan información sobre estos sistemas antes de que puedan implementarse.

La recomendación de Mozilla aquí es triple. En primer lugar, este mecanismo se amplía para aplicarse a todos los implementadores de sistemas de Inteligencia Artificial de alto riesgo. En segundo lugar, también proporciona información adicional, como descripciones del diseño, la lógica general y el rendimiento de un sistema de Inteligencia Artificial. En tercer lugar, incluye información sobre incidentes y fallos de funcionamiento graves, que los desarrolladores ya tendrían que informar a los reguladores nacionales en virtud de la Ley de Inteligencia Artificial.

¿Nos apoyarás hoy?

Creemos que todos merecen entender el mundo en el que viven. Este conocimiento ayuda a crear mejores ciudadanos, vecinos, amigos y custodios de nuestro planeta. Producir periodismo explicativo y profundamente investigado requiere recursos. Puedes apoyar esta misión haciendo una donación económica a Gelipsis hoy. ¿Te sumarás a nosotros?

Suscríbete para recibir nuestro boletín:

Recent Articles

Related Stories

DEJA UN COMENTARIO

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí