Presente y futuro de la regulación de la inteligencia artificial
Publicado el 20th febrero 2019
Aunque el concepto de inteligencia artificial es para algunos aún desconocido, lo cierto es que, desde su descubrimiento, ha supuesto una de las fuerzas más transformadoras de nuestro tiempo. A través del presente artículo, repasaremos en qué consiste la inteligencia artificial, qué implicaciones tiene y cuál es el marco normativo actual.
En 1956, fecha en la aparece por primera vez el término "inteligencia artificial" uno de sus creadores, Marvin Minsky, lo definió como "la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia como si las hubiese hecho un ser humano". En base a lo anterior, podríamos decir que el concepto de la inteligencia artificial agrupa a diversas tecnologías basadas en programas informáticos, datos y algoritmos, que no solamente se limitan a realizar tareas programadas de forma mecánica, sino que aprenden de la experiencia (tal y como hacemos los seres humanos), pudiendo elaborar juicios y tomar decisiones de forma autónoma.
Desde sus inicios, como ocurre con cualquier tecnología transformadora, la inteligencia artificial ha suscitado nuevos problemas y planteado nuevos escenarios, tanto de carácter ético como jurídico, lo que nos ha llevado a cuestionar si nuestro ordenamiento jurídico está preparado para hacer frente a los avances en esta materia, que sin duda forma ya parte de nuestra vida cuotidiana. Aunque el derecho ofrece herramientas para dar respuesta a este fenómeno, lo cierto es que la evolución exponencial y el impacto que la inclusión de la inteligencia artificial tiene en nuestro día a día (vehículos autónomos, robots domésticos o ciberseguridad, entre otros), requiere un diálogo permanente que debe implicar disciplinas jurídicas, éticas y científicas.
Por ello, ya en 2016 seis grandes empresas tecnológicas (Amazon, Apple, Google, Facebook, IBM y Microsoft) constituyeron la organización sin ánimo de lucro "Partnership on Artificial Intelligence" cuyo objetivo era potenciar el estudio para la formulación de mejores prácticas sobre las tecnologías de la inteligencia artificial.
En Europa, no fue hasta junio de 2018 cuando la Comisión Europea anunció la creación de un Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial ("High-Level Expert Group On Artificial Intelligence, AI HLEG"), que tiene como objetivo (i) aumentar las inversiones públicas y privadas en inteligencia artificial para impulsar su aceptación entre la población, (ii) prepararse para los cambios socioeconómicos que conlleva la inteligencia artificial, y (iii) garantizar un adecuado marco ético y legal para fortalecer los valores europeos. Dicho grupo, formado por 52 expertos procedentes del mundo académico, empresarial y de la sociedad civil, presentó unos meses más tarde, en diciembre de 2018, un borrador con las Directrices Éticas para una Inteligencia Artificial Confiable ("Ethics Guidelines for Trustworthy AI") que estuvo abierto a consulta hasta el mes de enero de 2019. Según las previsiones, el grupo de expertos presentará sus directrices definitivas a la Comisión Europea durante el mes de marzo de 2019, momento en el que serán analizadas y se propondrá en qué modo se lleva a cabo una implementación efectiva de las mismas.
El citado texto, que tiene como objetivo elaborar un plan de actuaciones conjuntas de los Estados Miembros para lograr una cooperación más estrecha y eficiente entre los mismos, establece dos premisas para que la inteligencia artificial sea "confiable". Por una parte, la inteligencia artificial deberá respetar los derechos fundamentales, la normativa aplicable y los principios y valores fundamentales, garantizando un "propósito ético" y deberá, por otra parte, ser técnicamente robusta y fiable, ya que la falta de dominio tecnológico puede acabar causando daños involuntarios.
Sobre dichas premisas, el grupo de expertos ha establecido una serie de directrices que se han dividido en tres capítulos. En el primer capítulo, se establece como objetivo que la inteligencia artificial se debe desarrollar tomando como referencia el ser humano y, para ello, debe desplegarse teniendo en cuenta los derechos fundamentales, los valores de la sociedad, el principio ético de hacer el bien ("beneficience"), la autonomía de los seres humanos, la justicia y la explicabilidad (operar de forma transparente). Se pone especial énfasis también en aquellas situaciones con asimetrías de poder, en las que pudieran verse involucrados sujetos vulnerables (por ejemplo, niños, discapacitados y/o minorías), siendo un ejemplo de lo anterior las situaciones que se producen en empleados respecto a sus empleadores y con los consumidores respecto de las empresas.
En el segundo capítulo, se establecen una serie de requisitos para la implementación y desarrollo de una inteligencia artificial en la que se pueda confiar, con el fin de que se alcance el máximo beneficio de aquellas situaciones y oportunidades creadas a través de la misma. Diez son los requisitos que el grupo de expertos considera necesarios para una inteligencia artificial "confiable", entre los que se encuentran el principio de responsabilidad proactiva, la gobernanza de los datos, el diseño para todos, la gobernanza de la autonomía de la inteligencia artificial basada en la supervisión humana, la no discriminación, el respeto por (y mejora de) la autonomía humana, el respeto a la privacidad, la robustez, la seguridad y la transparencia. Con el objetivo de alcanzar dichos requisitos, en el texto se proponen una serie de medidas tanto técnicas (por ejemplo, la trazabilidad y la auditoría) como no técnicas (entre las que se incluyen, por ejemplo, los códigos de conducta, la educación y la concienciación para promover una mentalidad ética y diálogo social, entre otros).
En el último y tercer capítulo, el grupo de expertos proporciona un listado de preguntas cuyo objetivo es evaluar si la inteligencia artificial que en un momento dado se pudiera desarrollar, supone una inteligencia artificial "confiable" y alcanza los criterios descritos con anterioridad. En consecuencia, el público objetivo de este capítulo son aquellos individuos o equipos responsables de cualquier aspecto relacionado con el diseño, desarrollo y despliegue de cualquier sistema basado en la inteligencia artificial.
A la espera de que el grupo de expertos presente sus directrices definitivas a la Comisión Europea, el borrador proporciona unas bases a partir de las cuales se va a desarrollar el marco jurídico de la inteligencia artificial dentro de la Unión Europea, con el objetivo de que ello incentive a la reflexión y el debate sobre una materia que impacta en infinidad de áreas, no sólo a nivel europeo sino también mundial. No obstante lo anterior, debemos tener en cuenta que dado que la tecnología y nuestro conocimiento sobre la misma se encuentra en evolución constante, cualquier texto que finalmente se apruebe, con total seguridad, se verá modificado por los avances que se produzcan en esta materia.