+
Accede a tu cuenta

 

O accede con tus datos de Usuario de El Periódico Extremadura:

Recordarme

Puedes recuperar tu contraseña o registrarte

 
 
   
 
 

UN NUEVO PASO DE LA CIENCIA

Débiles inteligencias

Los robots actuales aún no saben desempeñar múltiples tareas a la vez. Sus efectos en el empleo y la guerra dependen más de la política que de la tecnología

 

El Navya Arma, un vehículo autónomo presentado la semana pasada en Las Vegas (EEUU). - AP / JOHN LOCHER

MICHELE CATANZARO
16/01/2017

Por muy geniales que parezcan, los robots aún tienen una inteligencia débil. “Los miedos sobre los robots se refieren a una inteligencia artificial (IA) fuerte, la que simula la inteligencia humana: nadie está ni tan sólo investigando este asunto. La investigación real se hace en IA débil: agentes que calculan ecuaciones, planifican rutas o traducen de manera excelente, pero que no pueden hacer todas estas cosas a la vez”, explica Miquel Barceló, profesor de informática de la Universitat Politècnica de Cataluña (UPC).

Los robots actuales “no son personas, como en la ciencia ficción. Están orientados a tareas específicas”, insiste Beatriz López, investigadora de la Universitat de Girona y expresidenta de la Associació Catalana d’Intel·ligència Artificial. “Parte del documento europeo se basa en ciencia ficción: esto distrae de los problema reales que tenemos que encarar”, afirma Noel Sharkey, experto en IA de la Universidad de Sheffield (Reino Unido) y activista para una robótica ética.

SALTO DISRUPTIVO

“Ahora la IA no es la más refinada. Sin embargo, la tecnología está a punto de hacer un salto disruptivo. En 10 años podríamos ver ejemplos de robots capaces de hacer múltiples tareas a la vez”, afirmaUlises Cortés, investigador en IA de la UPC, basándose en la exponencial aceleración de la innovación. Barceló no lo comparte: “Faltan siglos para llegar”, afirma.

Los expertos enfrían los miedos sobre la peligrosidad de los robots. Las cosas pueden ir mal hasta con un horno y una lavadora, coinciden Barceló y López, por eso es natural que se proceda a una reglamentación, argumentan. Cortés opina que la UE llega tarde, pide mucha burocracia, y no asigna un presupuesto a la agencia de robótica que pretende impulsar.

“Lo más probable es que EEUU o China vayan adelante con sus protocolos y que, cuando estos se impongan, Europa no tenga nada que hacer”, observa. Sharkey pide una reglamentación de más alto nivel, que no envejezca con la llegada de nuevas tecnologías. “Necesitamos un declaración internacional de los derechos tecnológicos humanos: para asegurarnos que sean los humanos quienes toman las decisiones en asuntos médicos, judiciales, de empleo, de seguros…”, afirma.

CÓDIGO ÉTICO INCORPORADO

“El año pasado se propuso diseñar IA con un código ético incorporado”, explica López. En diciembre, la mayor asociación mundial de ingenieros (IEEE) publicó el libro “Diseño alineado con la ética”. En el texto, propone maneras de inscribir unos límites éticos desde el principio en el funcionamiento de los robots.

Ayer el Foro de Davos alertó sobre la sustitución masiva de empleados por robots. Los expertos son escépticos. Estudios de la Federación Internacional de Robótica apuntan a lo contrario. “Dejaremos de hacer muchas tareas rutinarias, incluso intelectuales. Pero hay todo un abanico de profesiones que se ofrecerán en un nuevo mercado del trabajo”, afirma López.

“Los países con más densidad robótica tienen tasas de paro estructuralmente más bajas”, afirma el economista Eduardo Garzón, entre los más críticos sobre la conexión entre robots y paro. “El progreso ha creado categorías profesionales que antes ni imaginábamos, como los programadores”, explica. “La pérdida de un trabajo para que lo haga una máquina es una opción del capitalismo, que es una economía montada alrededor del beneficio. Pagar impuestos para emplear una máquina en lugar de una persona no me parece mal”, afirma Barceló.

ARMAS ROBÓTICAS

Los expertos aprueban la decisión de la UE de regular el coche sin conductor. “Sin embargo, el informe no entra suficientemente en aplicaciones como las policiales y de represión de las protesta”, explica Sharkey, que afirma que en Dakota del Norte ya se pueden emplear drones equipados con spray. Este investigador, que lidera el Comité Internacional para el Control de las Armas Robóticas, está especialmente preocupado por los robots militares (tanques y drones automatizados, por ejemplo), una preocupación compartida por todos los expertos consultados.

“Una máquina no debería decidir nunca sobre la vida de un humano. Tampoco se puede asegurar que cumpla con las leyes de la guerra. Finalmente, estas máquinas no van a generar más seguridad, sino a aumentar los conflictos”, argumentó Sharkey en una charla el verano pasado. “Tenemos que evitar caer en otra carrera armamentística como la nuclear”, concluye López.