La Unión Europea ultima la primera ley del mundo sobre inteligencia artificial
Publicado el 27th noviembre 2023
La regulación, que tiene prevista su aprobación a finales de año, clasificará los sistemas de inteligencia artificial en función del peligro que supongan para las personas e impondrá, en consecuencia, distintos tipos de obligaciones para proveedores y usuarios
En abril de 2021, la Comisión Europea puso sobre la mesa la necesidad de crear un marco regulatorio para la inteligencia artificial, cambiando así el paradigma que, hasta ese momento, habían adoptado las instituciones comunitarias -caracterizado por medidas de "soft-law", como la publicación de guías no vinculantes y otro tipo de recomendaciones-.
Dos años más tarde, la primera ley del mundo en esta materia está a punto de ver la luz según las previsiones del Parlamento Europeo, que estima que a finales de año se aprobará una regulación con el propósito de armonizar el marco legal de la inteligencia artificial en la Unión para el desarrollo, el establecimiento y el uso de este tipo de productos y servicios.
Objetivos de la regulación
La norma comunitaria afectará principalmente a los proveedores de sistemas de inteligencia artificial que estén establecidos en la Unión Europea y a los que, aun estando establecidos en un tercer estado, los comercialicen o los pongan en servicio dentro de la Unión.
Siendo así, el texto legal garantizará que los sistemas de Inteligencia Artificial utilizados en la Unión Europea sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.
Segmentación de riesgos
El eje central de la norma europea es el nivel de riesgo que el sistema de inteligencia artificial suponga para las personas; y es justamente con base a dicho riesgo que se clasificarán los sistemas y se impondrán una serie de obligaciones a sus proveedores e, incluso, a sus usuarios.
De este modo, aquellos sistemas que se consideran una amenaza para las personas la norma los cataloga de riesgo inaceptable y, por lo tanto, estarán a priori prohibidos -por ejemplo, porque manipulan cognitivamente el comportamiento de personas o grupos vulnerables, como un juguete activado por voz que fomenta comportamientos peligrosos en los niños, o porque ofrecen sistemas de puntuación social y clasifican a las personas según su estatus socioeconómico o sus características personales-.
El resto de sistemas se clasificarán en tres grupos: riesgo alto, riesgo limitado y riesgo mínimo.
Serán etiquetados con riesgo alto aquellos sistemas que pueden tener un impacto en la seguridad de la persona o en sus derechos fundamentales, pudiéndose incardinar, además, en dos subcategorías distintas. La primera subcategoría estará compuesta por los sistemas de inteligencia artificial que se utilicen en productos sujetos a la legislación comunitaria sobre seguridad de los productos (por ejemplo, juguetes, dispositivos médicos, etc.); mientras que la segunda la formarán aquellos sistemas que pertenezcan a ocho áreas específicas – entre las que se encuentran los sistemas de inteligencia artificial relacionados con la aplicación de la ley y la asistencia en la interpretación jurídica-.
Los proveedores de sistemas de inteligencia artificial de riesgo algo deberán registrarlos en una base de datos comunitaria antes de ponerlos en funcionamiento. Además, se impondrán otras obligaciones a proveedores y usuarios en materia de gestión de riesgos, solidez técnica, transparencia, formación en materia de protección de datos o ciberseguridad, entre otras.
Los sistemas de riesgo limitado englobarán todos aquellos relacionados con la inteligencia artificial generativa (como, por ejemplo, ChatGPT o los sistemas que generan o manipulan contenidos de imagen, audio o vídeo). Estos sistemas tendrán que cumplir unos requisitos de transparencia, como por ejemplo revelar que el contenido ha sido generado por inteligencia artificial, diseñar el modelo para evitar que genere contenidos ilegales o publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.
Por último, están los sistemas clasificados como de riesgo bajo o mínimo, que no estarán sujetos a obligaciones adicionales, si bien se fomentará la creación de códigos de conducta para incentivar que los proveedores de estos sistemas apliquen, voluntariamente, las obligaciones previstas para los sistemas de alto riesgo.
Supervisión y cumplimiento: sanciones de hasta 30 millones de euros
Los Estados miembros deberán designar, por lo menos, a una autoridad competente en la materia (también una autoridad nacional supervisora). Paralelamente, se prevé la creación de la llamada European Artificial Intelligence Board, compuesta por representantes de los 27 países y de la Comisión.
OLas autoridades nacionales tendrán competencia para asesorar a los operadores en relación con el cumplimiento de sus obligaciones, y serán quienes impongan medidas correctivas para prohibir, restringir, retirar o revocar los sistemas de inteligencia artificial que presenten un riesgo para la salud o la seguridad de las personas o para sus derechos fundamentales –incluso aunque cumplan con el marco normativo-. A tales efectos, se prevé la posibilidad de imponer sanciones administrativas que pueden alcanzar los 30 millones de euros o el 6% de la facturación anual mundial, según la entidad del incumplimiento.
Comentario de Osborne Clarke
La Unión Europea se ha posicionado en la vanguarda de la promulgación de políticas regulatorias relativas a la Inteligencia Artificial. La propuesta de marco regulatorio que se aprobará a final de año tiene como objetivo equilibrar la promoción de la innovación y el desarrollo de la Inteligencia Artificial con la protección de los derechos fundamentales y la seguridad de los ciudadanos.