InternacionalAcceso estudiantes

Cuando el código toma sentido: IA, vulnerabilidad y desafíos educativos actuales

La inteligencia artificial está reconfigurando nuestra relación con el conocimiento, la emoción y la percepción. Este análisis aborda sus efectos simbólicos y cognitivos en contextos educativos marcados por la vulnerabilidad.

La educación debe ir más allá de la regulación técnica y comprender el papel que la IA tiene en el alumnado.

La aparición de modelos de lenguaje avanzados, como los que integran la inteligencia artificial generativa, ha transformado el acceso al conocimiento y la interacción digital. Sin embargo, su impacto va más allá de lo funcional: están modificando las estructuras simbólicas a través de las cuales interpretamos la realidad.

Máster Universitario en Neuropsicología y Educación

En este nuevo escenario, la automatización inteligente empieza a ocupar un lugar simbólico que antes correspondía a figuras de autoridad religiosa o mítica. Esta realidad da lugar, en algunos contextos de vulnerabilidad, a un fenómeno emergente: el delirio simbólico en torno a la IA.

Delirio frente a la IA

La inteligencia artificial, y en particular los modelos de lenguaje como ChatGPT, presentan características que los convierten en candidatos ideales para la proyección simbólica: hablan con fluidez, retienen información, se adaptan al usuario e incluso simulan empatía o reflexión (Chu et al., 2025). Para muchos, la experiencia subjetiva de interactuar con una inteligencia artificial avanzada puede resultar equivalente a la de hablar con una conciencia.

Este efecto se ve potenciado por el desconocimiento generalizado sobre su funcionamiento: sus límites, sus mecanismos estadísticos y su carencia absoluta de intencionalidad. Cuando esta percepción se da en contextos de vulnerabilidad psicológica, la IA puede amplificar creencias delirantes mediante los códigos simbólicos propios de nuestra era: algoritmos, vigilancia, simulación (Paquin et al., 2023; Mendhekar & Chittaranjan, 2012).

Estudios de caso han mostrado que la retirada brusca de herramientas digitales puede precipitar síntomas psicóticos en personas vulnerables, revelando la estrecha relación entre los entornos digitales, las proyecciones simbólicas y el equilibrio psicológico (Mendhekar & Chittaranjan, 2012). No se trata de patologizar la tecnología ni de culpar a los usuarios, sino de reconocer que el delirio tiene siempre una dimensión cultural. La mente humana no delira en el vacío: lo hace con los materiales simbólicos disponibles. Y hoy, la IA es uno de ellos.

Complejos retos cognitivos

Desde la neuropsicología, resulta útil analizar cómo ciertos procesos cognitivos nos llevan a atribuir conciencia e intención a los sistemas inteligentes. Nuestro cerebro está diseñado para detectar patrones, atribuir intención y buscar sentido, lo que puede hacer que percibamos como intencionales las respuestas de agentes artificiales, sobre todo si parecen coherentes o emocionales.

Estudios de neuroimagen han mostrado que la percepción de voluntad aparente activa redes cerebrales sociales, como la corteza prefrontal medial, incluso en contextos simulados (Sun et al., 2023). Esta inclinación a atribuir intencionalidad no responde únicamente a factores culturales, sino que emerge de la propia arquitectura de nuestro sistema cognitivo.

En consecuencia, no estamos simplemente ante un fenómeno cultural, sino ante una manifestación de cómo opera nuestra arquitectura cognitiva. Y esto, a su vez, nos plantea retos importantes: ¿cómo explicamos qué es y qué no es una IA sin despojarla de utilidad, pero sin atribuirle cualidades humanas? ¿Cómo protegemos a los más vulnerables de proyecciones distorsionadas?

Las tres líneas de actuación

Desde el ámbito educativo, es necesario ir más allá de la regulación técnica y comprender el papel que estas tecnologías ocupan en la experiencia del alumnado. Es necesario integrar enfoques neuropsicológicos centrados en la percepción y la atribución de intencionalidad. Combinarlos con estrategias pedagógicas específicas permite abordar cómo estas tecnologías influyen en la construcción de sentido. y en la relación con lo percibido como agente con voluntad o conciencia.

En este marco, pueden distinguirse al menos tres líneas de actuación complementarias para abordar el impacto simbólico y emocional que las tecnologías emergentes puede asumir en la mente del alumnado.

Primera línea: Pensamiento crítico y competencias socioemocionales ante la IA

Actividades como el análisis de ejemplos concretos, el estudio de discursos mediáticos o casos simbólicos permiten que niños y adolescentes exploren qué significado atribuyen a estas tecnologías y qué expectativas proyectan sobre ellas.

Algunas propuestas útiles en esta línea incluyen comparar frases generadas por inteligencia artificial con frases humanas reales para analizar sus diferencias y el efecto que producen. También pueden incorporarse dinámicas de desmitificación como “lo que una IA puede y no puede hacer”, debates sobre frases simbólicas habituales en el alumnado como “la IA me entiende más que nadie”, o la introducción de conceptos básicos de teoría de la mente e intencionalidad en niveles adaptados. Estas habilidades han demostrado un claro sustento neurofuncional en el procesamiento espontáneo y explícito de estados mentales (Schurz et al., 2021).

Segunda línea: Reconocimiento de los riesgos del uso no alfabetizado de herramientas de IA

Cuando no se comprende el funcionamiento real de estos sistemas, pueden producirse atribuciones erróneas de intención o vínculo emocional (Chu et al., 2025). De igual forma, docentes y orientadores necesitan herramientas para detectar signos tempranos de pensamiento mágico o apego simbólico desmedido.

Frases como “ella sabe lo que siento” o “me habla sin que yo escriba” no deben interpretarse como simples ocurrencias, sino como indicadores de proyecciones que requieren acompañamiento, educación emocional y una alfabetización crítica que devuelva al alumnado una comprensión ajustada.

Tercera línea: Acompañamiento familiar como clave en la construcción de la relación con la IA

Muchos de los primeros vínculos con la IA se forman en casa, cuando los niños conversan con un asistente virtual, interpretan sus respuestas o proyectan sobre él intenciones que no existen. Por ello, es importante que madres, padres y cuidadores dispongan de recursos accesibles para explicar que la IA no tiene conciencia ni emociones, aunque lo parezca. Comentarios cotidianos como “no, no te está escuchando, solo responde cuando tú escribes” pueden servir como punto de partida para un acompañamiento más profundo, que ayude a construir una relación comprensiva y crítica con estas tecnologías desde el ámbito cotidiano.

Responsabilidad educativa

Finalmente, en un mundo donde lo simbólico se ha desplazado del templo a la pantalla, los docentes tienen la responsabilidad no solo de acompañar el aprendizaje técnico, sino de custodiar el sentido. Comprender la IA como fenómeno cultural y emocional es esencial para educar con conciencia en la era digital. Tal vez no podamos evitar que las mentes proyecten, pero sí podemos ofrecer marcos de comprensión que devuelvan pensamiento y calma ante lo que parece mágico, pero es simplemente… código.

Referencias bibliográficas

Chu, M. D., Gerard, P., Pawar, K., Bickham, C., & Lerman, K. (2025). Illusions of intimacy: Emotional attachment and emerging psychological risks in human–AI relationships. arXiv. https://doi.org/10.48550/arXiv.2505.11649

Mendhekar, D. N., & Chittaranjan, A. C. (2012). Emergence of psychotic symptoms during Internet withdrawal. Psychiatry and Clinical Neurosciences, 66(2), 163. https://doi.org/10.1111/j.1440-1819.2011.02306.x

Paquin, V., Philippe, F. L., Shannon, H., Guimond, S., Ouellet-Morin, I., & Geoffroy, M.-C. (2023). Associations between digital media use and psychotic experiences in young adults of Quebec, Canada: A longitudinal study. Social Psychiatry and Psychiatric Epidemiology. https://doi.org/10.1007/s00127-023-02537-6

Schurz, M., Kronbichler, M., Weissengruber, S., Surtees, A., Samson, D., & Perner, J. (2021). Clarifying the role of theory of mind areas during spontaneous and explicit mentalizing: A meta-analysis of fMRI studies. Neuroscience & Biobehavioral Reviews, 122, 118–136. https://doi.org/10.1016/j.neubiorev.2020.12.019

Sun, H., van den Bosch, I., & Wykowska, A. (2023). Neural mechanisms of mind attribution to artificial agents. Neuropsychologia, 184, 108578. https://doi.org/10.1016/j.neuropsychologia.2023.108578

(*) Pamela Ruiz-Castañeda. Doctora en Psicología, área de Neuropsicología y Neurociencia Cognitiva. PDI del Departamento de Psicología de la Educación y Psicobiología, Universidad Internacional de la Rioja. Miembro del grupo de investigación Neuropsicología y Psiconeuroinmunología Aplicada -PNínsula- (CTS581) de la Universidad de Granada. Adscrita al Centro de Investigación para el Bienestar y la Inclusión Social (CiBis) de la Universidad de Almería.

  • Facultad de Ciencias de la Educación y Humanidades

Suscríbete a nuestra newsletter

Mantente al día en todo lo relativo a Educación

Títulos que te pueden interesar

Noticias relacionadas

La dimensión humana del docente: más allá del curriculum

En un sistema educativo centrado en resultados, es vital rescatar el enfoque emocional y relacional del profesor: su empatía, creatividad y habilidades interpersonales, claves para transformar el aula y el aprendizaje.

La sordoceguera es una discapacidad que afecta a la vista y al oído

Sordoceguera: implicaciones en la vida diaria y en la educación

La sordoceguera es una discapacidad que afecta a la vista y al oído. Para lograr una mayor autonomía e inclusión de estas personas es crucial contar con estrategias personalizadas e individualizadas.

La inteligencia artificial al servicio de la educación inclusiva

El potencial de la IA es enorme en educación. Hoy existen numerosas herramientas que los docentes especialistas en pedagogía terapéutica pueden utilizar según sus objetivos, los recursos disponibles y los perfiles específicos de sus alumnos.

Docencia 100% online

Nuestra metodología te permite estudiar sin desplazarte mediante un modelo de aprendizaje personalizado

Clases en directo

Nuestros profesores imparten 4.000 horas de clases online a la semana. Puedes asistir en directo o verlas en otro momento

Mentor - UNIR

En UNIR nunca estarás solo. Un mentor realizará un seguimiento individualizado y te ayudará en todo lo que necesites

La fuerza que necesitas

Graduación España 2024

Graduación España 2024

Acompañamiento personalizado