España busca adaptar su normativa a la era de la inteligencia artificial
Publicado el 27th noviembre 2023
El Gobierno español da un paso al frente en la regulación de la IA para la recreación de imágenes y voces de personas
La evolución de las tecnologías de creación de imágenes y el creciente protagonismo de la inteligencia artificial (IA) en los últimos años han desencadenado un amplio espectro de oportunidades en la gran mayoría de sectores.
Sin embargo, este avance vertiginoso también ha suscitado retos y dilemas, especialmente debido a la falta de una regulación adecuada que se ajuste a estas innovaciones. En particular, las técnicas vinculadas a la recreación de imágenes y voces de personas mediante técnicas de inteligencia artificial demandan una protección mayor de ciertos derechos fundamentales, como la intimidad, la propia imagen y el honor.
Deepfakes e hiperrealismo
En este escenario de rápidos avances tecnológicos, las deepfakes o vídeos hiperrealistas se destacan como uno de los exponentes más reconocibles. Estas creaciones se definen como composiciones visuales, auditivas o audiovisuales que emulan la realidad, generando imágenes y/o voces ficticias de personas. Basada en el uso de IA y aprendizaje automático (machine learning), esta tecnología logra recrear acciones con una apariencia hiperrealista, aparentando ser ejecutadas por las personas en cuestión.
Este fenómeno plantea desafíos significativos, ya que la capacidad de generar contenidos realistas de manera ficticia puede tener repercusiones éticas y sociales, afectando directamente a la percepción pública y la confianza en los medios visuales y auditivos. Ejemplo de ello en España son los casos de las adolescentes de Almendralejo o de la reconocida cantante Rosalía, en los que se utilizó la manipulación de imágenes mediante IA con el propósito de crear contenido pornográfico falso.
Proposición de Ley
En respuesta a esta problemática, España ha dado un paso significativo con la presentación, el 13 de octubre de 2023, de una Proposición de Ley Orgánica para regular las simulaciones de imágenes y voces generadas por inteligencia artificial. Esta iniciativa legislativa reconoce la imperante necesidad de establecer marcos legales sólidos frente a la amenaza emergente que implica esta tecnología, especialmente teniendo en cuenta que desde el año 2009 el Tribunal Europeo de Derechos Humanos ha reconocido como una dimensión ineludible del derecho a la intimidad, el control de la propia imagen.
La Proposición de Ley aboga por modificar normativas existentes. Partiendo de que la regulación de la inteligencia artificial implica reformar el ordenamiento jurídico español, esta iniciativa busca abordar las modificaciones legislativas consideradas más inmediatas y urgentes. Estas modificaciones se centran en áreas críticas, como el acceso a información veraz y la protección de derechos fundamentales, enfocándose especialmente en aspectos como la privacidad y la intimidad.
Modificaciones propuestas
Las principales y destacables reformas propuestas son las siguientes:
- Ley 13/2022 General de Comunicación Audiovisual: se considera como infracción muy grave la difusión de deepfakes sin el consentimiento expreso de las personas afectadas, a menos que incluyan una clara advertencia sobre su origen de IA (por ejemplo, mediante una marca de agua). No obstante, se contempla el uso de esta tecnología cuando esté autorizado por ley para la detección, prevención, investigación y persecución de infracciones penales, o cuando el contenido sea parte de una obra creativa, satírica, artística o de ficción.
- Ley Orgánica 1/1982 de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen: se establece como intromisión ilegítima la difusión y uso de deepfakes sin la autorización o consentimiento expreso de las personas afectadas, a menos que incluyan una clara advertencia sobre su origen de IA.
- Código Penal: se tipifica como delito de injuria la recreación mediante tecnología deepfake con la intención de menoscabar el honor, fama, dignidad o estimación de una persona, cuando se difunde públicamente sin la autorización necesaria. La difusión de estas recreaciones en redes sociales se considera una injuria hecha con publicidad.
- Ley 58/2000 de Enjuiciamiento Civil: se crea una nueva medida cautelar específica consistente en la retirada de imágenes o audios generados por IA.
- Ley Orgánica 3/2018 de Protección de Datos Personales y garantía de los derechos digitales: se regula de forma expresa que la norma resulta de aplicación a los tratamientos de datos personales generados por IA que sean difundidos públicamente.
- Ley 3/1991 de Competencia Desleal: se añade como conducta constitutiva de actos de engaño la utilización de deepfakes o la alteración de las apariencias corporales en comunicaciones comerciales, sin advertir o etiquetar tal circunstancia en la propia comunicación comercial.
Además, la iniciativa propone la creación de dos organismos nuevos, el Consejo de Participación Ciudadana, responsable de supervisar y evaluar la IA, formado por 12 representantes de la sociedad civil y vinculado al Ministerio de Ciencia e Innovación; y el Consejo Consultivo sobre el uso de la Inteligencia Artificial, cuyos miembros serán elegidos por mayoría absoluta del Congreso de los Diputados entre candidatos especializados en la materia.
Marco jurídico internacional
En el plano internacional también ha habido avances regulatorios en esta materia, especialmente a nivel de la Unión Europea, donde se espera la pronta aprobación del Reglamento de Inteligencia Artificial, que aborda la tecnología deepfake y establecerá una serie de pautas para su uso. La Proposición de Ley española, por ende, deberá adecuarse a las disposiciones de este reglamento.
Además, el reciente Reglamento europeo de Servicios Digitales también hace referencia a la tecnología deepfake al imponer la obligación a los motores de búsqueda en línea y a las plataformas en línea de muy gran tamaño de etiquetar las deepfakes como tal, de conformidad con el principio de transparencia.
En este contexto, el Servicio de Estudios del Parlamento Europeo ha emitido el informe Tackling deepfakes in European policy, referenciado en la exposición de motivos de esta Proposición de Ley. Este informe examina los riesgos asociados con las deepfakes, como el robo de identidad, la intimidación y la afectación de derechos fundamentales como la igualdad y la no discriminación, proponiendo medidas para abordar estos riesgos en diversas dimensiones (entre otras, la tecnológica, la creativa o la de difusión).
Fuera de Europa, Corea del Sur ha adoptado medidas drásticas mediante la promulgación de una ley en 2020 que prohíbe la distribución de deepfakes que puedan causar perjuicio al interés público, con sanciones que incluyen penas de hasta cinco años de prisión o multas de hasta 43.000 dólares estadounidenses. En China, el 10 de enero de 2023 entraron en vigor unas disposiciones aplicables a proveedores y usuarios de tecnología deepfake que regulan procedimientos que abarcan todo el ciclo de vida de esta tecnología, desde su creación hasta su distribución.
En contraste, en Estados Unidos, a pesar de la ausencia de legislación federal específica sobre las deepfakes, algunos estados como California, Texas o Nueva York han implementado leyes centradas principalmente en el ámbito de la pornografía deepfake.
Comentario de Osborne Clarke
El panorama regulatorio de la IA en España está experimentando avances significativos con la puesta en marcha de la Agencia de Supervisión de la IA y la reciente publicación de esta Proposición de Ley. Aunque esta es solo una proposición, refleja la voluntad del Gobierno español de abordar este desafío emergente y posicionarse como líder en la regulación de la IA.
Con la rápida evolución de la inteligencia artificial y sus continuos desafíos, la regulación se presenta como una herramienta indispensable para mitigar riesgos y maximizar los beneficios derivados de esta tecnología, asegurando así un futuro en el que la IA sea una fuerza positiva para la sociedad.
Sin perjuicio de lo anterior, esta propuesta del gobierno español plantea algunos interrogantes. Por un lado, si la Proposición de Ley logrará superar los procesos legislativos necesarios y obtener la aprobación final de las Cortes, y en caso afirmativo, cuál será su efectividad en la práctica.
Además, cabe poner en duda la idoneidad y necesidad de algunas de estas modificaciones, al menos la relativa a protección de datos. La propuesta de modificación a la normativa española de protección de datos que se plantea en este texto podría considerarse redundante, en el sentido de que todo dato producido por un sistema de IA que haga identificable o identifique a una persona física ya queda cubierto por la normativa actual.