12 mayo 2023 11 MIN de lectura

Inteligencia Artificial: un marco regulatorio ético que permita la innovación

«Los gobiernos y el legislador deben trabajar para establecer un marco legal y ético adecuado para la Inteligencia Artificial, que a su vez permita el desarrollo de estos sistemas y sea favorable a la innovación por parte del sector privado»


 Paloma Torres| Senior Consultant

En los años 60, el filósofo estadounidense Thomas Kuhn propuso la idea de que la ciencia no progresa de forma lineal sino cíclica. Un cambio de paradigma supone la aceptación de una nueva teoría para explicar y entender el mundo, una nueva manera de percibir la realidad y, definitivamente, la Inteligencia Artificial (en adelante, IA) y sus distintas aplicaciones están generando un cambio de paradigma en ciertos sectores y esferas de la vida cotidiana.

En las últimas décadas, desde sus primeras aplicaciones en los años 50, la IA ha pasado a formar parte del día a día de miles de millones de personas en el mundo, ha cambiado la manera en la que nos relacionamos entre nosotros y con el entorno. Desde el reconocimiento facial, a los coches y electrodomésticos conectados, pasando por el diagnóstico médico o la creación artística, esta tecnología disruptiva no solo está permitiendo que seamos más eficientes, sino que aumente la calidad y precisión de muchas tareas.

Un marco regulatorio todavía muy incipiente para la Inteligencia Artificial

Con ello, se ha abierto a nivel legislativo un dilema relativo al grado en el que esta debería regularse, así como sobre sus implicaciones a nivel ético, y es que el marco regulatorio actual es muy incipiente si lo comparamos con la velocidad y envergadura de la evolución de esta tecnología.

Con el objetivo de abordar el vacío legal existente, la Comisión Europea presentó en 2021 su Reglamento de IA, más conocido como IA Act. Desde su presentación, el texto se ha visto sometido a distintas revisiones y a un intenso debate por parte de las instituciones europeas. Esta norma trata de regular principalmente la clasificación de la IA, estableciendo una serie de niveles de riesgos, asociados a unas restricciones, y diversos requisitos de transparencia para los sistemas definidos como de “alto riesgo”.

En este sentido, ayer, 11 de mayo, el Comité de Mercado Interior y el de Libertades Civiles aprobaron un proyecto de mandato de negociación sobre el IA Act, que deberá ser refrendado por el Pleno del Parlamento, previsiblemente durante el periodo de sesiones comprendido entre el 12 y el 15 de junio. Posteriormente comenzarán las negociaciones con el Consejo, con el objetivo de aprobar la regulación en los próximos meses.

Análogamente al debate a nivel regulatorio, en los últimos años, la IA ha aumentado su presencia en actividades empresariales y cotidianas. Así pues, ha permitido automatizar numerosas tareas, lo cual ha desembocado en una mejora de las condiciones laborales y de la calidad de vida; en materia de sostenibilidad, la IA ha contribuido a mejorar la gestión de las políticas de tráfico o a potenciar la eficiencia en la gestión de las energías renovables; en el ámbito de la seguridad, contribuye a detectar amenazas de manera más rápida; también, está presente en ámbitos como la educación o el acceso a la información. Asimismo, en el ámbito médico la IA está permitiendo, entre otros, mejorar el diagnóstico de enfermedades y servir de soporte a la investigación.

«La IA está generando también un gran debate en torno a sus potenciales riesgos e implicaciones prácticas, tanto para la seguridad y privacidad de los datos personales»

Numerosos beneficios que, en paralelo, también desembocan en retos que deben ser abordados. En este sentido, el uso de la IA está generando también un gran debate en torno a sus potenciales riesgos e implicaciones prácticas, tanto para la seguridad y privacidad de los datos personales, así como sus consecuencias a nivel ético.

Un ejemplo concreto de cómo se está abordando esta problemática en la Unión Europea es la prohibición a finales del mes de marzo de la plataforma de OpenAI, Chat GPT, por parte del Garante italiano, la autoridad independiente de protección de datos, por considerar que no respeta la normativa en materia de datos. Semanas después de la prohibición, parece que permitirá su puesta en marcha bajo una serie de condiciones de privacidad y de protección de menores, entre otras. Además, el Garante continuará monitorizando de cerca el funcionamiento de la plataforma de OpenAI para prevenir cualquier incumplimiento y tomar medidas concretas en caso de considerarlo necesario.

La estela abierta por el Garante italiano se está siguiendo en países como Francia, Alemania y España, aunque con un cariz menos restrictivo. En el caso de España, a mediados de abril, la Agencia Española de Protección de Datos inició una investigación de oficio a la empresa estadounidense OpenAI por un posible incumplimiento de la normativa de protección de datos. En paralelo, la Autoridad Europea de Protección de Datos, EDPB, ha constituido un grupo de trabajo para el fomento de la cooperación e información entre las distintas autoridades de protección de datos.

Preguntas cómo ¿quién es responsable de proteger los datos recopilados? o ¿De qué manera se garantiza la privacidad y la seguridad de los datos? no han dejado de sucederse con la llegada de nuevas aplicaciones de IA que implican un uso más cotidiano, como lo son los sistemas de IA generativa. Y es que la protección de los datos es uno de los temas que más preocupan, ya que a través de estos sistemas se recopilan ingentes cantidades de datos, que a su vez pueden contener información sensible o personal.

Asimismo, el desafío de poder evitar los sesgos o la discriminación de los sistemas de IA o temas como la responsabilidad de las decisiones o los derechos de autor de las obras realizadas mediante IA van a requerir el establecimiento de un marco regulatorio homogéneo y adecuado que guíe su uso, así como que asegure que los datos están protegidos y su tratamiento se realiza de manera responsable. Para promover el desarrollo y uso responsable, sostenible y confiable de la IA, entre otros, se ha creado la Agencia Española de Supervisión de la Inteligencia Artificial. Con la creación de esta Agencia, España se convierte en el primer país de la Unión Europea en dotarse de una autoridad de este tipo, que será clave para asegurar que se cumple con lo establecido en el futuro IA Act, así como para supervisar la correcta interpretación de la IA.

Promover la colaboración público-privada, con vistas a que la regulación se adapte a la realidad de los usos de la Inteligencia Artificial

Estamos ante una tecnología disruptiva, una herramienta cuyos beneficios son enormes, pero que puede conllevar riesgos debido a la diversidad de sus usos. Este cambio de paradigma implica que los gobiernos y el legislador deben trabajar para establecer un marco legal y ético adecuado, que a su vez permita el desarrollo de estos sistemas y sea favorable a la innovación por parte del sector privado. Para su consecución se debe promover la colaboración público-privada, con vistas a que la regulación se adapte a la realidad de los usos de esta tecnología, a la vez que permita su desarrollo y el progreso tecnológico. Así pues, iniciativas como la impulsada por el Gobierno de España junto con la Comisión Europea para para poner en marcha el primer sandbox regulatorio de la UE sobre Inteligencia Artificial son una muestra de cómo generar un ecosistema de colaboración entre autoridades públicas y el sector privado, para definir conjuntamente buenas prácticas en la implementación del IA act.

Newsletter

No te pierdas nada

* Campos requeridos

Vinces usará la información que usted proporcione en este formulario para estar en contacto con usted y para enviarle actualizaciones y promociones. Al hacer clic para suscribirse, acepta que dicha información será procesada a través de Mailchimp. Puede obtener más información sobre las prácticas de privacidad de Mailchimp aquí .:

Para cualquier información complementaria, así como para el ejercicio de sus derechos de acceso, rectificación, supresión y portabilidad de sus datos, de limitación y oposición a su tratamiento, así como a no ser objeto de decisiones basadas únicamente en el tratamiento automatizado de sus datos, cuando procedan, podrá dirigirse a VINCES, C/Fortuny 45, 28010- Madrid o a la dirección de correo electrónico privacidad@vincesconsulting.com