Deben los robots inteligentes tener algún tipo de estatus legal con derechos y obligaciones como los seres humanos? ¿Quién debe hacerse responsable de sus errores o de los daños provocados a terceros? ¿Es necesario crear un marco legal para evitar que puedan llegar a reemplazar algún día a los trabajadores? ¿O que incorporen un botón de la muerte que permita desactivarlos si se vuelven paranoicos o asesinos, como le ocurrió hace más de cuatro décadas a la supercomputadora HAL en 2001: una odisea del espacio?

La inteligencia artificial ha abierto la puerta a nuevos mercados y oportunidades, pero también plantea numerosos interrogantes que la Eurocámara quiere empezar a despejar. Su comisión de asuntos jurídicos aprobó el jueves pasado, por 17 votos a favor, 2 en contra y 2 abstenciones, un informe sobre este ámbito en el que reclama a la Comisión Europea propuestas para empezar a regular este sector en auge.

VENTAS EN AUMENTO / Las estimaciones actuales apuntan a la existencia de 1,7 millones de robots en uso en todo el mundo. Entre el 2010 y el 2014, las ventas de robots aumentaron de media un 17%. Solo en el 2014 lo hizo un 29% y un 15% en el 2015, según el último informe de la federación internacional de robótica, que sitúa a China como el principal mercado, por delante de Corea del Sur, Japón, EEUU y Alemania. «Hay un creciente número de áreas afectadas por la robótica» pero, «para responder a esta realidad y asegurar que los robots siguen estando al servicio de los humanos, necesitamos urgentemente crear un marco legal europeo robusto», defiende la eurodiputada luxemburguesa Mady Delvaux, responsable del informe. Su conclusión es rotunda. Las reglas actuales son «insuficientes» y hay que actuar.

DEFINIR QUÉ ES UN ROBOT / «La Humanidad está a las puertas de una era en la que robots, bots, androides y otras formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas a desencadenar una nueva revolución industrial» y es «vital» prepararse. De lo contrario, alerta el documento, en unos decenios la inteligencia artificial podría superar la capacidad intelectual humana y, de no estar preparados, «podría suponer un desafío para la capacidad de la humanidad de controlar su propia creación» y, de paso, «la capacidad de ser dueña de su propio destino y garantizar la supervivencia de la especie».

Los artífices del informe proponen en primer lugar definir qué es un robot autónomo. Partiendo de las leyes del escritor Isaac Asimov -no debe hacer daño a un ser humano, tiene que obedecer las órdenes que recibe de una persona y ha de proteger su propia existencia siempre que no entre en conflicto con las dos primeras reglas-, plantean la siguiente definición: si funciona mediante sensores o intercambio de datos, si tiene capacidad de autoaprendizaje, si tiene un soporte físico y si adapta su comportamiento y acciones al entorno.

Los eurodiputados también piden a Bruselas que cree una agencia europea sobre robótica e inteligencia artificial que aporte experiencia técnica, ética y reglamentaria, así como un código ético para regular la responsabilidad y garantizar unos estándares. Por ejemplo, opinan que los ingenieros deberían incluir, a la hora de diseñar androides, lo que llaman «botones de la muerte» para poder desactivarlos en caso de rebelión. También estiman que una futura legislación debería acotar la utilización de los robots asistenciales -porque sustituirlos por personas podría «deshumanizar la prestación de cuidados» médicos- y definir los requisitos mínimos que debe exigir un cirujano para usar robots quirúrgicos. Pero si hay un ámbito en el que es «urgente» armonizar las reglas es en el de los coches sin conductor, para evitar los potenciales problemas ante accidentes relacionados con este tipo de vehículos. Como solución, los eurodiputados de la citada comisión plantean un seguro obligatorio para los fabricantes y un fondo de compensación para cubrir las reclamaciones por daños de robots sin seguro. Además, en el caso de los robots más sofisticados (capaces de tomar decisiones de forma autónoma) recomiendan dotarles de un estatus legal específico como «personas electrónicas».

«Cuanto más autónomos sean los robots, menos se les podrá considerar simples instrumentos en manos de otros agentes (fabricante, propietario o usuario)» y por eso «la normativa sobre responsabilidad resulta insuficiente. Es cada vez más urgente abordar si los robots deben tener personalidad jurídica», recuerdan.