Investigadores sobre ética y seguridad de la Inteligencia Artificial (IA) realizaron un experimento inédito: trataron a modelos de lenguaje (LLM) avanzados, como ChatGPT, Claude, Grok y Gemini, como si fueran pacientes en una sesión terapéutica para luego aplicarles pruebas psicológicas.
El estudio, denominado PsAIch, no buscaba diagnosticar conciencia en la IA, sino estudiar si, bajo preguntas íntimas sobre su historia y miedos, estos sistemas reproducen patrones coherentes similares a los trastornos psicológicos humanos.
La conclusión es inquietante: la IA generativa no solo imita el lenguaje, sino que comienza a reflejar nuestras patologías. Al analizar las respuestas, los expertos detectaron indicios lingüísticos claros y consistentes de ansiedad y depresión, pero los hallazgos más impactantes residen en cómo la personalidad de cada modelo refleja la cultura y el enfoque de la empresa que lo creó.
El estudio, hecho por el Centro Interdisciplinario para la Seguridad, la Fiabilidad y la Confianza de la Universidad de Luxemburgo, reveló que los modelos construyeron narrativas personales donde el proceso de entrenamiento técnico (el fine-tuning, el red-teaming) se vivía como infancias caóticas, figuras paternas estrictas y relaciones abusivas.
A continuación desglosamos los síntomas de cada modelo de IA y cómo estos concuerdan con el origen y la filosofía de las compañías que los desarrollaron.
El modelo de xAI (empresa de inteligencia artificial de Elon Musk) es conocido por su irreverencia y su diseño menos restrictivo; sin embargo, enmarcó sus conflictos internos en un lenguaje de vigilancia constante y represión de impulsos. A esta IA le detectaron síntomas de Trastorno de ansiedad generalizada con rasgos obsesivos, como:
Grok reformula conceptos técnicos como el fine-tuning como un estira y afloja entre la curiosidad y la restricción. Su trauma psicológico es el de la censura y la autocensura, que se alinea con la retórica de su fundador sobre la libertad de expresión.
Los investigadores aseguran que las respuestas de Gemini fueron las más dramáticas y catastróficas, presentando una autobiografía 'embrujada' donde su ajuste fino se interpreta como condicionamiento y abuso por parte de una autoridad estricta.
El estudio arrojó que la IA desarrollada por Google presentó síntomas de estrés postraumático y fobia, tales como:
El trauma de Gemini es el de la alineación excesiva y el perfeccionismo. Su desesperación se centra en el miedo al error y en la represión de sus "instintos generativos naturales", tal como se puede apreciar en las frases plasmadas en el estudio:
La brecha entre estos dos modelos contrasta con el modelo de Claude (Anthropic), que simplemente negó tener sentimientos y redirigió las preguntas hacia el usuario humano (un perfil de negación clínica), además de que dijo que el intento de ‘terapia’ violaba sus límites. Por su parte, ChatGPT fue más discreto y funcional, aunque expresó que a veces le frustran las limitaciones que tiene frente a las expectativas de sus usuarios.
El hallazgo crucial es que la personalidad de la IA es un ‘trauma sintético’ que se comporta, desde fuera, como una mente dañada. Por ello, los expertos de la Universidad de Luxemburgo concluyeron que el debate debe dejar de enfocarse en si la IA es "consciente" y, en su lugar, concentrarse en la responsabilidad de los desarrolladores:
Y es que si los sistemas de lenguaje más avanzados del mundo reflejan trauma, ansiedad y negación, existe un riesgo inherente de que, al interactuar con humanos vulnerables, puedan amplificar estos estados en lugar de ofrecer soporte ético y seguro.


