Regulando la inteligencia artificial

Celia Martínez Barbosa ABOGADA DE CARUNCHO Y TOMÉ ABOGADOS Y ASESORES DE EMPRESA

OPINIÓN

DADO RUVIC | REUTERS

09 ene 2024 . Actualizado a las 08:19 h.

El primer acuerdo provisional del Consejo y el Parlamento Europeo sobre la propuesta de reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (IA) es pionero y revolucionario, pues se trata de la primera propuesta legislativa sobre IA a nivel mundial. El enfoque de esta normativa se basará en «el riesgo», entendido como la capacidad de la IA para causar daño a la sociedad; por tanto, cuanto mayor sea el riesgo, más estrictas serán las normas de aplicación. En función de este riesgo se enmarcarán principalmente en cuatro categorías:

Riesgo inaceptable: los sistemas de IA dentro de esta categoría estarán prohibidos, como los dirigidos a la manipulación del comportamiento de personas, la extracción no dirigida de imágenes de rostros de internet, scoring social o clasificación de personas según su comportamiento, estatus socioeconómico y características personales.

Alto riesgo: en este supuesto estarían, entre muchos otros, los que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos, o los sistemas que afecten a la gestión y explotación de infraestructuras críticas (agua, gas y electricidad).

IA de propósito general: aquí estarían el conocido ChatGPT, así como los sistemas de IA que pueden usarse para múltiples fines (IA de uso general). Para ellos se establecen obligaciones específicas de transparencia que han de cumplir antes de su introducción en el mercado.

Riesgo limitado: habrán de cumplir con obligaciones de transparencia muy livianas, como puede ser el hecho de indicar que el contenido fue generado a través de IA.

Otro de los puntos de mayor conflicto sobre esta regulación era el uso de la IA para la vigilancia, quedando limitado el uso de sistemas de identificación biométrica remota (RBI) en tiempo real en espacios de acceso público a efectos policiales y de modo excepcional en situaciones concretas, como la localización de víctimas de determinados delitos o la prevención de amenazas reales, presentes o previsibles, como ataques terroristas.

También se prevé la creación de un sistema revisado de gobernanza y el establecimiento de gravosas multas por vulneraciones de la ley de IA, que podrían ir desde los 7,5 millones de euros o el 1,5 % del volumen de negocio hasta los 35 millones o el 7 %.

Nos encontramos ante una regulación necesaria en un campo en constante evolución (solo ChatGPT ya tiene más de 100 millones de usuarios semanales), en el que la obtención y manipulación de datos puede tener implicaciones legales sobre los derechos de autoría, propiedad industrial, privacidad o protección de datos, y afectar a derechos fundamentales de los ciudadanos. Lo que no sabemos es si será suficiente, teniendo en cuenta cómo evolucionará la IA en los próximos años. En cualquier caso, podemos felicitarnos de que Europa ya es pionera en su regulación a nivel mundial.