Inteligencia Artificial

La Unión Europea endurecerá las normas para usar ChatGPT

La propuesta legislativa de los eurodiputados establece que los modelos de lenguaje generativos que utilizan el famoso chatbot conversacional de OpenAI o Bard tendrán que cumplir con unos requisitos adicionales de transparencia

La Unión Europea endurecerá las normas para usar ChatGPT.

La Unión Europea endurecerá las normas para usar ChatGPT.

Carles Planas Bou

La Unión Europea (UE) sigue dando pasos para aprobar la primera ley del mundo que pondrá normas al uso de la inteligencia artificial (IA). Tras meses de debate interno, las dos comisiones parlamentarias responsables de redactar la regulación han pasado este jueves el mandato de negociación, una posición que el Parlamento Europeo deberá votar a mediados de junio y que fija una serie de obligaciones para aplicaciones como ChatGPT.

La propuesta legislativa de los eurodiputados establece que los modelos de lenguaje generativos que utilizan el famoso chatbot conversacional de OpenAI Bard, la alternativa creada por Google, tendrán que cumplir con unos requisitos adicionales de transparencia. Eso obligará a esas grandes compañías a revelar si utilizan material protegido por los derechos de autor, señalar qué contenidos han sido creados con IA y diseñar esos sistemas para que no generen contenidos ilegales.

"Dado el profundo impacto transformador que la IA tendrá en nuestras sociedades y economías, la Ley de IA es muy probablemente el texto legislativo más importante de este mandato. Es la primera ley de este tipo en el mundo, lo que significa que la UE puede liderar el camino para que la IA esté centrada en el ser humano y sea fiable y segura", ha señalado el eurodiputado rumano Dragos Tudorache, co-ponente del texto.

Clasificación según riesgo

El mandato aprobado este jueves pretende garantizar que los sistemas de IA sean seguros, transparentes, trazables, no discriminatorios y que estén supervisados por personas. Es por ello que clasifica los usos de esta tecnología en una escala de riesgos. "Cuanto mayor sea el riesgo que puede conllevar más firme y estricta será la norma", explicó la vicepresidenta europea, Margrethe Vestager, el 21 de abril de 2021, cuando la Comisión Europea puso ese pionero reglamento sobre la mesa por primera vez.

De esta manera, se espera que la ley europea prohíba los usos de la IA que supongan un "riesgo inadmisible", como la vigilancia biométrica, el reconocimiento facial, los sistemas policiales predictivos, la manipulación intencionada o la categorización de personas en base a su comportamiento social, estatus socioeconómico o características personales.

Durante los últimos días los eurodiputados han ampliado los usos de IA clasificados como de "alto riesgo" para añadir aquellos que puedan "incluir los daños a la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas", los sistemas que puedan influir a los ciudadanos durante procesos electorales y los algoritmos de recomendación de grandes redes sociales como TikTokFacebookTwitter Instagram.

La comisión de Mercado Interior y la de Libertades Civiles han aprobado ese mandato negociador con 84 votos a favor, 7 en contra y 12 abstenciones. El trabajo aún no está hecho. Esa posición deberá ser votada en el pleno del Europarlamento que se celebrará entre el 12 y el 15 de junio. La postura que finalmente apruebe la cámara será la que defenderá en su negociación con los 27 gobiernos del club comunitario, representados por el Consejo Europeo. Con todo ello, se espera que Bruselas de luz verde a la ley durante este año, aunque tardará más en entrar en vigor.