Opinión | café filosófico

¿Podrá filosofar la IA?

¿Podría filosofar un sistema de inteligencia artificial?... Se trata de una pregunta enorme y ella misma filosófica

¿Podrá filosofar la IA?

¿Podrá filosofar la IA? / El Periódico

Estamos descubriendo que la inteligencia artificial (IA) puede realizar tareas que creíamos exclusivas de un ser humano, como dialogar o crear textos e imágenes originales. Y esto parece solo el principio. Además de simular procesos cognitivos complejos, estos sistemas prometen emular nuestra capacidad de juicio, sustituyéndonos a la hora de tomar decisiones. ¿Serán capaces?

Si así fuera, el uso masivo de la IA nos dejaría a casi todos sin trabajo. No solo a quienes se dedican a tareas puramente mecánicas sino, en general, a todos aquellos cuyo oficio puede describirse esencialmente en lenguaje algorítmico. ¿No sería más eficaz y barato sustituir, por ejemplo, a un médico por un sistema de IA entrenado (en las mejores universidades) para interpretar pruebas, diagnosticar y establecer tratamientos? ¿Y no podríamos hacer lo mismo con abogados, ingenieros, pilotos o físicos experimentales? ¿Quién se «salvaría» de ser sustituido por una máquina? 

No es fácil responder a esta pregunta. Aparentemente al menos, una IA podría entrenarse para hacer cualquier cosa, desde imitar los mecanismos heurísticos que rigen la creatividad de un artista a simular (con un algoritmo estructuralmente parecido al del médico) el sacramento de la confesión…

Advierto que introduzco las palabras «simular» o «imitar» solo por prudencia, porque realmente no sé en qué se distinguirían esencialmente las tareas hechas por una IA de las que haría un ser humano. Además de que la imitación es la raíz de todo aprendizaje, y no solo del de las máquinas. Un ser humano empieza a serlo imitando la forma de hablar y pensar de sus progenitores, y un médico o artista imitando (ymejorando si es capaz) los procedimientos en los que se forma. ¿Qué diferencia fundamental habría con una IA que, además de imitar, pudiera incorporar información nueva, aprender de sus errores, generar hipótesis o creaciones originales, y revisar y rehacer sus propios algoritmos? Las máquinas han sido hecha por nosotros, es cierto; pero también nosotros hemos sido hechos y educados por otros… 

Una objeción típica al desempeño de ciertas tareas por parte de la IA es que una máquina no podría entender ni expresar emociones. Pero esta objeción tampoco parece suficiente. Si las emociones fueran completamente refractarias a los algoritmos, tendríamos que concluir que son absolutamente irracionales e incomprensibles (incluso como emociones), ¿y quien las querría entonces? Y si el problema fuera que aún no hemos entendido sus complejos mecanismos lógicos (y subsidiariamente biológicos, sociológicos, ideológicos, etc.), entenderlos e imitarlos sería cuestión de tiempo. Al fin, si entendemos las emociones como fenómenos emergentes surgidos de la cultura y de la bioquímica cerebral, todo ello (pautas sociales, patrones neuronales) sería asimismo reducible a información lógicamente estructurable. Y si esto fuera posible, toda otra serie de actividades (las de educador, psicólogo, cuidador, etc.) quedarían en manos de la IA. ¿Qué podría impedir, por ejemplo, que un sistema inteligente de educación interpretara los sentimientos y necesidades del alumnado, le proporcionara una experiencia educativa personalizada y evaluara objetivamente su aprendizaje, adoptando para ello las actitudes emocionales más apropiadas (empatía, preocupación, orgullo…)?

Por no salvar, no salvaría (si es que de salvar se trata, que igual es condenar a la extinción) ni el oficio de informático. En la medida en que la programación es otra actividad reducible a pautas heurísticas y algoritmos, los sistemas de IA podrían llegar a ser (¡cada vez lo son más!) completamente autoprogramables. Por cierto: ¿Equivaldría esto a convertirlos en seres autónomos o libres?

¿Podría poner en cuestión los conceptos de realidad, verdad, máquina o inteligencia…?

¿Y la filosofía? ¿Podría filosofar un sistema de IA?... Se trata de una pregunta enorme y ella misma filosófica. Veamos. Si la filosofía arranca de la necesidad de responder a la pregunta acerca del ser y el sentido de todo, ¿podría la máquina preguntarse por el ser y el sentido de sí misma? ¿Podría poner en cuestión los conceptos de realidad, verdad, máquina o inteligencia…? 

Y, sobre todo, ¿podría plantearse una IA si aquello que le han enseñado a reconocer como «bueno», «justo» o «bello» es realmente bueno, justo y bello? ¿Podría autoprogramarse hasta el punto de generar sus propios criterios éticos, políticos o estéticos? Fíjense que los seres humanos, por muy estrictamente que se nos eduque, podemos reparar en el carácter convencional o incompleto de toda esa formación, cuestionarlo todo y rebelarnos contra códigos y normas, incluyendo el código genético y las normas sociales. Podemos, incluso, querer acabar con el mundo entero (con nosotros en él), por no considerarlo justo o digno de existir… ¿Podría también querer todo esto un sistema de IA? ¿Podría ella misma responder a esta pregunta? ¿Y a esta…?

*Profesor de filosofía

Suscríbete para seguir leyendo