Pamela Ruiz Castañeda
La inteligencia artificial está reconfigurando nuestra relación con el conocimiento, la emoción y la percepción. Este análisis aborda sus efectos simbólicos y cognitivos en contextos educativos marcados por la vulnerabilidad.

La aparición de modelos de lenguaje avanzados, como los que integran la inteligencia artificial generativa, ha transformado el acceso al conocimiento y la interacción digital. Sin embargo, su impacto va más allá de lo funcional: están modificando las estructuras simbólicas a través de las cuales interpretamos la realidad.
En este nuevo escenario, la automatización inteligente empieza a ocupar un lugar simbólico que antes correspondía a figuras de autoridad religiosa o mítica. Esta realidad da lugar, en algunos contextos de vulnerabilidad, a un fenómeno emergente: el delirio simbólico en torno a la IA.
Delirio frente a la IA
La inteligencia artificial, y en particular los modelos de lenguaje como ChatGPT, presentan características que los convierten en candidatos ideales para la proyección simbólica: hablan con fluidez, retienen información, se adaptan al usuario e incluso simulan empatía o reflexión (Chu et al., 2025). Para muchos, la experiencia subjetiva de interactuar con una inteligencia artificial avanzada puede resultar equivalente a la de hablar con una conciencia.
Este efecto se ve potenciado por el desconocimiento generalizado sobre su funcionamiento: sus límites, sus mecanismos estadísticos y su carencia absoluta de intencionalidad. Cuando esta percepción se da en contextos de vulnerabilidad psicológica, la IA puede amplificar creencias delirantes mediante los códigos simbólicos propios de nuestra era: algoritmos, vigilancia, simulación (Paquin et al., 2023; Mendhekar & Chittaranjan, 2012).
Estudios de caso han mostrado que la retirada brusca de herramientas digitales puede precipitar síntomas psicóticos en personas vulnerables, revelando la estrecha relación entre los entornos digitales, las proyecciones simbólicas y el equilibrio psicológico (Mendhekar & Chittaranjan, 2012). No se trata de patologizar la tecnología ni de culpar a los usuarios, sino de reconocer que el delirio tiene siempre una dimensión cultural. La mente humana no delira en el vacío: lo hace con los materiales simbólicos disponibles. Y hoy, la IA es uno de ellos.
Complejos retos cognitivos
Desde la neuropsicología, resulta útil analizar cómo ciertos procesos cognitivos nos llevan a atribuir conciencia e intención a los sistemas inteligentes. Nuestro cerebro está diseñado para detectar patrones, atribuir intención y buscar sentido, lo que puede hacer que percibamos como intencionales las respuestas de agentes artificiales, sobre todo si parecen coherentes o emocionales.
Estudios de neuroimagen han mostrado que la percepción de voluntad aparente activa redes cerebrales sociales, como la corteza prefrontal medial, incluso en contextos simulados (Sun et al., 2023). Esta inclinación a atribuir intencionalidad no responde únicamente a factores culturales, sino que emerge de la propia arquitectura de nuestro sistema cognitivo.
En consecuencia, no estamos simplemente ante un fenómeno cultural, sino ante una manifestación de cómo opera nuestra arquitectura cognitiva. Y esto, a su vez, nos plantea retos importantes: ¿cómo explicamos qué es y qué no es una IA sin despojarla de utilidad, pero sin atribuirle cualidades humanas? ¿Cómo protegemos a los más vulnerables de proyecciones distorsionadas?
Las tres líneas de actuación
Desde el ámbito educativo, es necesario ir más allá de la regulación técnica y comprender el papel que estas tecnologías ocupan en la experiencia del alumnado. Es necesario integrar enfoques neuropsicológicos centrados en la percepción y la atribución de intencionalidad. Combinarlos con estrategias pedagógicas específicas permite abordar cómo estas tecnologías influyen en la construcción de sentido. y en la relación con lo percibido como agente con voluntad o conciencia.
En este marco, pueden distinguirse al menos tres líneas de actuación complementarias para abordar el impacto simbólico y emocional que las tecnologías emergentes puede asumir en la mente del alumnado.
Primera línea: Pensamiento crítico y competencias socioemocionales ante la IA
Actividades como el análisis de ejemplos concretos, el estudio de discursos mediáticos o casos simbólicos permiten que niños y adolescentes exploren qué significado atribuyen a estas tecnologías y qué expectativas proyectan sobre ellas.
Algunas propuestas útiles en esta línea incluyen comparar frases generadas por inteligencia artificial con frases humanas reales para analizar sus diferencias y el efecto que producen. También pueden incorporarse dinámicas de desmitificación como “lo que una IA puede y no puede hacer”, debates sobre frases simbólicas habituales en el alumnado como “la IA me entiende más que nadie”, o la introducción de conceptos básicos de teoría de la mente e intencionalidad en niveles adaptados. Estas habilidades han demostrado un claro sustento neurofuncional en el procesamiento espontáneo y explícito de estados mentales (Schurz et al., 2021).
Segunda línea: Reconocimiento de los riesgos del uso no alfabetizado de herramientas de IA
Cuando no se comprende el funcionamiento real de estos sistemas, pueden producirse atribuciones erróneas de intención o vínculo emocional (Chu et al., 2025). De igual forma, docentes y orientadores necesitan herramientas para detectar signos tempranos de pensamiento mágico o apego simbólico desmedido.
Frases como “ella sabe lo que siento” o “me habla sin que yo escriba” no deben interpretarse como simples ocurrencias, sino como indicadores de proyecciones que requieren acompañamiento, educación emocional y una alfabetización crítica que devuelva al alumnado una comprensión ajustada.
Tercera línea: Acompañamiento familiar como clave en la construcción de la relación con la IA
Muchos de los primeros vínculos con la IA se forman en casa, cuando los niños conversan con un asistente virtual, interpretan sus respuestas o proyectan sobre él intenciones que no existen. Por ello, es importante que madres, padres y cuidadores dispongan de recursos accesibles para explicar que la IA no tiene conciencia ni emociones, aunque lo parezca. Comentarios cotidianos como “no, no te está escuchando, solo responde cuando tú escribes” pueden servir como punto de partida para un acompañamiento más profundo, que ayude a construir una relación comprensiva y crítica con estas tecnologías desde el ámbito cotidiano.
Responsabilidad educativa
Finalmente, en un mundo donde lo simbólico se ha desplazado del templo a la pantalla, los docentes tienen la responsabilidad no solo de acompañar el aprendizaje técnico, sino de custodiar el sentido. Comprender la IA como fenómeno cultural y emocional es esencial para educar con conciencia en la era digital. Tal vez no podamos evitar que las mentes proyecten, pero sí podemos ofrecer marcos de comprensión que devuelvan pensamiento y calma ante lo que parece mágico, pero es simplemente… código.
Referencias bibliográficas
Chu, M. D., Gerard, P., Pawar, K., Bickham, C., & Lerman, K. (2025). Illusions of intimacy: Emotional attachment and emerging psychological risks in human–AI relationships. arXiv. https://doi.org/10.48550/arXiv.2505.11649
Mendhekar, D. N., & Chittaranjan, A. C. (2012). Emergence of psychotic symptoms during Internet withdrawal. Psychiatry and Clinical Neurosciences, 66(2), 163. https://doi.org/10.1111/j.1440-1819.2011.02306.x
Paquin, V., Philippe, F. L., Shannon, H., Guimond, S., Ouellet-Morin, I., & Geoffroy, M.-C. (2023). Associations between digital media use and psychotic experiences in young adults of Quebec, Canada: A longitudinal study. Social Psychiatry and Psychiatric Epidemiology. https://doi.org/10.1007/s00127-023-02537-6
Schurz, M., Kronbichler, M., Weissengruber, S., Surtees, A., Samson, D., & Perner, J. (2021). Clarifying the role of theory of mind areas during spontaneous and explicit mentalizing: A meta-analysis of fMRI studies. Neuroscience & Biobehavioral Reviews, 122, 118–136. https://doi.org/10.1016/j.neubiorev.2020.12.019
Sun, H., van den Bosch, I., & Wykowska, A. (2023). Neural mechanisms of mind attribution to artificial agents. Neuropsychologia, 184, 108578. https://doi.org/10.1016/j.neuropsychologia.2023.108578
(*) Pamela Ruiz-Castañeda. Doctora en Psicología, área de Neuropsicología y Neurociencia Cognitiva. PDI del Departamento de Psicología de la Educación y Psicobiología, Universidad Internacional de la Rioja. Miembro del grupo de investigación Neuropsicología y Psiconeuroinmunología Aplicada -PNínsula- (CTS581) de la Universidad de Granada. Adscrita al Centro de Investigación para el Bienestar y la Inclusión Social (CiBis) de la Universidad de Almería.
- Facultad de Ciencias de la Educación y Humanidades