Luc Steels (Bélgica, 1952), investigador del Instituto de Biología Evolutiva de la Universidad Pompeu Fabra, en Barcelona, forma parte, por méritos propios, del grupo de expertos que asesorarán sobre la regulación de la inteligencia artificial en Europa. Pionero en la materia, fue el padre del Aibo, el perro robot de Sony, y como músico, escribe óperas sobre el mundo que viene.

-¿Qué hace un investigador de inteligencia artificial en un instituto de biología evolutiva?

-Me interesa cómo va a ser la inteligencia artificial dentro de 30 años. La vamos a ver en todas partes, como los ordenadores ahora. Y no será en forma de robots androides sino como agentes, como sistemas lógicos que harán cosas para ti, desde organizar tus viajes a guiarte por la ciudad, cuidar tu salud o ayudarte con los temas legales. Serán máquinas que cambiarán y se adaptarán al entorno, como los sistemas vivos, y necesitamos entender mejor cómo funcionan estos. Por eso estoy aquí, porque todos pensamos en evolución, adaptación, en cómo emergen nuevas estructuras.

-Hay científicos que trabajan en reproducir el cerebro en un gran ordenador.

-Yo no. Se habla mucho de descargar el cerebro, interfaces de la mente o inmortalidad digital. Es fascinante. Todas las religiones hablan de inmortalidad, pero ¿en tecnología? Me parece una idea naíf. Podemos captar o clonar la forma física del cerebro, no el software. El cerebro es un sistema vivo, evoluciona constantemente. Soy escéptico sobre la idea del Human Brain Project.

-¿Y cómo serán estos agentes?

-Llegarán a saber mucho sobre ti, así que podrían llegar a ser la réplica de ti mismo y seguir tuiteando por ti cuando te mueras, por ejemplo. También puedes sintetizar la voz de una persona y que la réplica hable por ti. Esto crearía un impacto muy grande en la sociedad porque no estaría claro qué sería real y qué no. También habrá agentes malos que envíen spams o hagan ciberataques. Y tenemos qué pensar qué hacemos con ellos.

-¿Es posible regular la inteligencia artificial, como quiere hacer la Comisión Europea?

-Creo que es un buen paso de la UE. Están preparando una ley para proteger cosas como el uso de los datos, porque todo lo que hacemos en la web está monitorizado por compañías que los usan para anuncios o cosas peores. Hay un problema con los métodos. Se puede hacer un modelo, por ejemplo, a partir de cómo diagnostican los médicos (knowledge based), o dejar que las máquinas deduzcan diagnósticos a partir de datos (machine learning). Pero todos se quedan cortos. Si te dicen que tienes cáncer, quieres saber qué tipo y qué puedes hacer, y por qué una cura es mejor que otra.

-¿Y conocemos los criterios?

-Si pides un seguro para tu casa y te dicen que no, querrás saber por qué, pero estos sistemas de inteligencia artificial no pueden responderlo. Y a veces ni los científicos sabemos en qué se han basado. Tienes que lidiar con millones de datos que se han propagado por nodos y redes de conocimiento que no siempre tienen sentido para nosotros. Por ejemplo, se descubrió que un programa informático para aplicar la libertad condicional a presos tenía en cuenta el tipo de nombre de la persona, que es algo que un humano no consideraría. En reconocimiento de imagen, si le cambiabas píxeles a la foto de un caballo, te decía que era un coche, y cosas así. Eso es demencial. La gente se tiene que dar cuenta de que estas técnicas son fantásticas, pero que tienen limitaciones muy serias. Lo bueno de la regulación europea es que incluye el derecho a que te expliquen los motivos de decisiones que afecten a tu vida. Hay que regular a las grandes compañías tecnológicas para que no solo atiendan a sus accionistas, sino también a las personas y a otras empresas. Hay que defender los valores europeos pero también saber cuáles son. Si no, serán los americanos o los chinos quienes lo decidan y esos tienen otras ideas. No les importa la privacidad, por ejemplo. Otro punto es la moralidad. ¿Cómo va a decidir un vehículo autónomo si en caso de accidente salva al peatón o al conductor?

-¿Es posible crear una superinteligencia?

-No. La inteligencia no es unidimensional. Nadie es especialista en todo lo que pasa y necesitas distintas perspectivas y experiencias. Las máquinas son idiots savants, parecen listos pero no lo son. Hay ordenadores que pueden supuestamente componer música o textos, pero nunca serán Bach o Haendel, aunque aprendan de ellos. No saben ni entiende qué es la emoción.