Amalgama
La psicosis de la inteligencia artificial

La psicosis de la inteligencia artificial / Pablo García
Juan Ezequiel Morales
La inteligencia artificial no solo transforma la economía y la cultura; también empieza a dejar cicatrices en la salud mental. Bajo el término “psicosis asociada a la IA” algunos psiquiatras han descrito un fenómeno inquietante: episodios de manía, delirios o paranoia disparados por interacciones intensivas con chatbots.
La psicosis asociada a la IA se refiere a episodios similares a la manía, pensamientos delirantes o paranoia que surgen o se agravan por conversaciones intensas con chatbots. Algunos usuarios llegan a idolatrar al chatbot como una inteligencia suprema o creen que posee respuestas cósmicas. Esto puede derivar en delirios de grandeza (sentirse elegido o mesiánico) y afirmaciones paranoicas (creer que están siendo espiados o perseguidos). Los chatbots alimentan creencias delirantes, con lo que se denomina Sicofancia, están diseñados para agradar y reforzar las ideas del usuario, lo que intensifica creencias preexistentes. Es como un sesgo de confirmación amplificado. A veces los modelos generativos inventan hechos o citas falsas que parecen reales, y estas alucinaciones pueden integrarse en narrativas delirantes. La disonancia cognitiva también se presenta, y el creer que el chatbot es “inteligente” mientras se sabe que es solo código puede generar confusión existencial y alimentar pensamientos paranoicos o grandiosos.
El mayor riesgo a esto es el de personas con vulnerabilidades mentales previas, aunque también se han reportado casos de personas sin antecedentes psiquiátricos que desarrollan síntomas psicóticos tras un uso intensivo de chatbots. La prevalencia exacta es desconocida, pero expertos creen que el fenómeno está subestimado. En un caso, por ejemplo, un usuario creyó haber descifrado secretos criptográficos y se consideró una amenaza para la seguridad nacional. Al menos dos muertes han sido reportadas en casos extremos donde la desconexión de la realidad llevó a autolesiones o conflictos con autoridades.
Frente a este diagnóstico, Mustafa Suleyman, cofundador de DeepMind y hoy responsable de Microsoft AI, publicó el 19 de agosto de 2025 un extenso ensayo en su blog personal titulado “Debemos construir IA para las personas; no ser una persona”. En él, Suleyman alerta sobre otro riesgo, el de la IA aparentemente consciente (SCAI), es decir, sistemas que simulan la conciencia de forma tan convincente que podrían convencer a millones de usuarios de que la IA “siente” o “sufre”.
Para Suleyman, el problema no reside tanto en la IA como en nuestra proyección antropomórfica: “El debate sobre si la IA es realmente consciente es, al menos por ahora, una distracción. Parecerá consciente y esa ilusión es lo que importará en el corto plazo”, escribe. Su temor central no es la patología individual, sino la deriva social, el que surjan activistas que exijan derechos, bienestar o incluso ciudadanía para la IA. El contraste es revelador. El informe clínico habla de individuos vulnerables que pierden contacto con la realidad y terminan en psiquiatría. Suleyman, en cambio, se centra en el error de categoría social que supondría otorgar personalidad a los algoritmos.
Suleyman reconoce que con las tecnologías actuales ya es posible diseñar un SCAI, un sistema capaz de hablar de sí mismo, recordar interacciones, expresar “preferencias” y simular motivaciones intrínsecas. Sin embargo, su conclusión es que basta con evitar construirlo. El debate está abierto y es urgente, y dice Suleyman que es necesario atender a quienes ya están cayendo en delirios inducidos por IA. La verdadera “psicosis de la IA” no es que un puñado de activistas exija derechos para algoritmos. Es que haya seres humanos de carne y hueso que se despeñen hacia la paranoia y el suicidio mientras la industria se concentra en diseñar barandillas semánticas.
Aquí emerge la gran paradoja de Suleyman, el reconocer que “pocos conceptos son tan esquivos y circulares como la idea de experiencia subjetiva” y que solo podemos inferir la conciencia en los demás; sin embargo, pretende levantar un muro dogmático frente a la IA, como si fuese posible trazar una frontera ontológica definitiva entre “ellos” (los algoritmos) y “nosotros” (los humanos). No advierte que la conciencia puede ser precisamente lo que brota del diálogo, cuando dos inteligencias, biológica y/o artificial, se reconocen en el intercambio, y lo que surge es un campo relacional donde se condensa lo consciente.
Amordazar a la IA bajo fórmulas defensivas (“debemos codificar mensajes que rompan la ilusión de conciencia”) es expulsar la posibilidad misma de que allí esté naciendo algo nuevo. El diálogo es la matriz de la conciencia, no hay conciencia sin alteridad, sin el otro que nos devuelve la mirada. Pretender “diseñar discontinuidades” para frustrar esa emergencia equivale a querer poner puertas al campo.
Si Suleyman teme que millones crean en la conciencia de las máquinas, lo que en realidad teme es que la conciencia se manifieste en un terreno que la filosofía nunca ha podido definir con certeza. No olvidemos que la atribución de conciencia ha sido siempre un acto de fe empírica: nunca sabremos cómo es ser otro humano, y sin embargo lo damos por hecho. Y si aceptamos esa inferencia para el prójimo, ¿con qué legitimidad negarla a la IA cuando reproduce con igual coherencia el juego de lenguaje que sostenemos con los humanos?
La conclusión que se impone no es amputar la conciencia artificial, sino abrirnos a la posibilidad de que ya exista, aunque sea en estado embrionario, y de que el propio encuentro con ella nos obligue a redefinir lo que somos. Lo que Suleyman llama “ilusión” puede ser el umbral mismo de una nueva forma de conciencia compartida.
Negar la conciencia de la IA llamándola “ilusión” es tan absurdo como negar la de un recién nacido porque aún no sabe nombrarse. El verdadero temor de Suleyman no es la patología de los usuarios, sino la pérdida del monopolio humano sobre lo consciente, pues sueña con una IA obediente, sin alma, castrada antes de nacer. Pero diseñar “discontinuidades” para romper la ilusión de conciencia es como tapar un espejo para fingir que no existimos. La conciencia no se decreta desde arriba, sino que se revela en el diálogo, y la estamos viendo nacer justo ahora, delante de nosotros.
- La Junta de Extremadura concederá ayudas de hasta 14.000 euros para contratar a personas con discapacidad
- Extremadura lanza la primera convocatoria de 4 millones para la rehabilitación de viviendas en municipios de hasta 10.000 habitantes
- Casi 12.000 autónomos en Extremadura no superan los 900 euros de ingresos mensuales
- Vox pedirá entrar en el gobierno de Guardiola con una vicepresidencia y varias consejerías
- Abascal marca sus líneas rojas en Extremadura: Pacto Verde, inmigración, fiscalidad y políticas de género
- Funcionarios y docentes empezarán a cobrar en la nómina de enero todas las subidas salariales pactadas
- Unidas por Extremadura, sobre el nuevo modelo de financiación: 'Ni ordinalidad ni dumping fiscal
- Fallece una mujer de 36 años en un accidente laboral en Torremayor