La primera ley europea de Inteligencia Artificial regulará ChatGPT

7 de julio de 2023

La primera ley europea de Inteligencia Artificial regulará ChatGPT

En su avance hacia la digitalización y dentro de su estrategia digital, la Unión Europea ha comenzado a regular la Inteligencia Artificial (IA), con el objetivo de garantizar unas mejores condiciones de desarrollo y un uso innovador de la tecnología. Los beneficios que puede aportar abarcan desde una mejor asistencia sanitaria, a un transporte más seguro y limpio, una fabricación más eficiente y una energía más sostenible y económica.

Fue en el mes de abril de 2021, cuando la Comisión propuso el primer marco regulador de la UE para IA. Ahora, el reciente 14 de junio, el Parlamento Europeo ha dado luz verde a una nueva legislación con 499 votos a favor, 28 en contra y 93 abstenciones. En este momento se encuentra en proceso para que el Consejo atienda las diferentes consideraciones de los países miembros.

El documento aprobado es una versión más dura de la propuesta inicial que esbozó la Comisión Europea en 2021 e incluye la vigilancia de los sistemas de IA generativa como ChatGPT. Esta normativa propone que los sistemas de IA que puedan emplearse en distintas aplicaciones se analicen y clasifiquen según el riesgo que supongan para los usuarios. Distintos niveles de peligro implicarán una mayor o menor regulación. Una vez sean aprobadas, supondrán las primeras normas del mundo sobre IA.

Las premisas del Parlamento Europeo en la legislación de la Inteligencia Artificial

La principal prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y además, respetuosos con el medio ambiente. Estos sistemas deben estar supervisados siempre por personas, evitando la automatización, para no llegar a resultados perjudiciales.

El Parlamento Europeo está también trabajando para establecer una definición uniforme y tecnológicamente neutra de la Inteligencia Artificial, que pueda aplicarse a futuros sistemas de IA.

Ley de Inteligencia Artificial: Niveles de riesgo y diferentes normativas

Esta nueva ley establece diferentes obligaciones a proveedores y usuarios en función del nivel de riesgo de una Inteligencia Artificial determinada. Aunque muchos de los sistemas que se emplean en la actualidad plantean riesgos mínimos, la ley evalúa todos.

Riesgo inaceptable

La Unión Europea considera que los sistemas de IA de riesgo inaceptable, son aquellos que suponen una amenaza y por ello, serán prohibidos. Dentro de este epígrafe, encontramos aquellos sistemas que emplean la manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos. Un ejemplo serían los juguetes activados por voz que fomenten comportamientos peligrosos en los niños.

Bajo este baremo se establece también una clasificación o puntuación social de personas en función de su comportamiento, estatus socioeconómico o características personales, que definen esos grupos vulnerables.

Con un riesgo inaceptable encontramos también los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial, aunque contempla algunas excepciones. Un ejemplo de este caso, serían los sistemas de identificación biométrica a distancia ‘a posteriori’, en los que la identificación se produce tras un retraso significativo. Están permitidos  a la hora de perseguir delitos graves y sólo cuando haya previa aprobación judicial.

Riesgo alto

Por otro lado, los sistemas de IA que afecten de forma negativa a la seguridad o a los derechos fundamentales se consideran de alto riesgo y se dividen en dos categorías. En la primera, están los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos. Aquí se incluyen juguetes, aviación, automóviles, dispositivos médicos y ascensores.

En la segunda categoría se contemplan los sistemas de IA pertenecientes a ocho ámbitos específicos, que se deberán registrar en una base de datos de la Unión Europea. Estos son: identificación biométrica y categorización de personas físicas; gestión y explotación de infraestructuras críticas; educación y formación profesional; empleo, gestión de trabajadores y acceso al autoempleo; acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas; aplicación de la ley; gestión de migración, el asilo y el control de fronteras y asistencia en la interpretación jurídica y aplicación de la ley. Todos estos sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida.

IA generativa: ChatGPT

Por su parte, la IA generativa, como es el caso de Chat GPT, tendrá que cumplir una serie de requisitos de transparencia. Revelar que el contenido ha sido generado por IA; diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

Riesgo limitado

Por último, los sistemas de IA de riesgo limitado deben cumplir también una serie de requisitos mínimos de transparencia, a través de los cuales, los usuarios puedan tomar decisiones con conocimiento de causa. Después de haber interactuado con las aplicaciones, el usuario podrá decidir su continuará usándolas.

En este sentido, los usuarios deben ser conscientes de cuándo están interactuando con la IA. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo, como es el caso de deepfakes.

Avances en la nueva legislación

El pasado 14 de junio de 2023, los eurodiputados adoptaron su posición negociadora sobre la ley de IA. Por el momento, están avanzando las conversaciones sobre la forma final de la ley en el Consejo, junto a los países de la Unión Europea. El objetivo prefijado es lograr un acuerdo a finales de 2023.

La irrupción de ChatGPT ha puesto en evidencia que el proyecto legislativo vigente aún se encuentra dando sus primeros pasos, de ahí la obligación a la Comisión de Mercado Interior y Protección del Consumidor (IMCO) a elaborar un borrador (publicado el pasado 5 de mayo) con enmiendas a la propuesta aprobada el 14 de junio por el Parlamento Europeo, que se integrarán en la postura definitiva.

Los sistemas de IA que han penetrado recientemente en el mercado encuentran difícil encaje en esta propuesta legislativa. Hablamos, tanto de ChatGPT, como Midjourney o DALL-E, que generan textos o imágenes de acuerdo con lo ordenado por el usuario; de ahí su nombre: ‘Inteligencia Artificial Generativa’. Estas IA no encuentran cabida en la categoría de sistemas de riesgo inaceptable, y difícilmente encuentran hueco en la clasificación de ‘riesgo alto’, aunque sería aún menos razonable que quedaran huérfanas de legislación.

Para evitar que ChatGPT quede postergado a una regulación tan limitada y condicionada a su uso en determinados productos, la enmienda de mayo incluye en la propuesta una nueva subcategoría: el modelo funcional. Aquí entran los sistemas de IA con un propósito o finalidad general.

Bloqueos a ChatGPT: la postura en varios países europeos

La Agencia de Protección de Datos Española se encuentra en los últimos meses estudiando tomar medidas ante ChatGPT de OpenAI. Por el momento, han iniciado de oficio actuaciones previas de investigación a la empresa, por un posible incumplimiento de la Ley de Protección de Datos.

Desde la Organización Europea de Consumidores han instado a las diferentes asociaciones de los países miembros de la Unión Europea, que estudien tomar medidas contra la aplicación de OpenAI. La razón de esta alarma en diferentes entidades, ha sido la posibilidad de que los consumidores sufran daños por tecnologías que están sin regular, aunque, como hemos visto, se están produciendo avances.

En el caso de Italia, a finales del mes de marzo de 2023, tomaba medidas contra esta IA, ya que bloqueó el acceso a la aplicación por una supuesta recopilación de datos personales de manera ilícita. Actualmente, en nuestro país, la prohibición de esta herramienta es una opción que se baraja.

Esta incertidumbre se debe al error sufrido por ChatGPT que provocó que se filtrasen datos personales de varios usuarios, razón por la Italia decidió prohibir su uso, ya que incumplía la ley de protección de datos de los consumidores. Como vemos, la legislación aún no ha cogido el ritmo del avance tecnológico y aún quedan muchas incógnitas que despejar.