InternacionalAcceso estudiantes

Sandra Doval: “Cuando un adolescente dice que TikTok le ha diagnosticado, sabes que la psicoeducación es muy urgente”

Doctora en Psicología con especialidad en Neurociencia, la docente del Máster de Psicología General Sanitaria de UNIR ha sido reconocida con el Premio 'Mercedes Rodrigo Bellido'. Su apuesta es integrar IA explicable en herramientas clínicas.

La docente de UNIR Sandra Doval posa con el premio.

Ahora que la inteligencia artificial se integra a gran velocidad en todo tipo de sectores y servicios para facilitarnos la vida, ¿de qué manera puede también ayudar en su día a día a los psicólogos en su trabajo? ¿qué puede aportar la IA en el análisis y estudio de algo tan sensible y variable como es la mente humana?

Sandra Doval Moreno tiene alguna respuesta al respecto. Esta psicóloga e investigadora impulsa una nueva generación de algoritmos explicables capaces de apoyar el trabajo clínico sin sustituirlo. Con una sólida trayectoria en IA aplicada a la detección del riesgo suicida, esta especialista defiende que la tecnología debe ser transparente, ética y culturalmente ajustada al entorno en el que se desenvuelve. “Sin pensamiento crítico ni control humano, ningún algoritmo puede garantizar la seguridad en salud mental”, subraya.

Máster Universitario en Psicología General Sanitaria

La docente del Máster de Psicología General Sanitaria de UNIR y doctora en Neurociencia Computacional ha sido reconocida con el Premio Psicofundación para Jóvenes Iniciativas de Emprendimiento en Psicología “Mercedes Rodrigo Bellido”. El galardón se entregó el pasado mes de diciembre en el marco de la Jornada de Excelencia e Innovación en Psicología, organizada por Psicofundación, el COP y el CES Cardenal Cisneros.

“La inteligencia artificial no puede sustituir el juicio humano”, sostiene la creadora del proyecto MAE Loomee, una herramienta que monitoriza el estado emocional en tiempo real y devuelve información comprensible para que el psicólogo decida con criterio, no la máquina. Su objetivo es acercar la salud mental a todos mediante una tecnología transparente, ética y ajustada al idioma español.

MAE Loomee: “Es un sistema de monitorización activa del estado emocional del paciente, que sintetiza la información para que el clínico decida. Se basa en la explicabilidad y permite que la tecnología no suplante al clínico”.

Una investigadora que quiere abrir la ‘caja negra’

Los organizadores de este prestigioso premio subrayan la pertinencia de su apuesta: incorporar inteligencia artificial explicable en salud mental para reducir la burocracia, mejorar el tiempo efectivo de terapia y, sobre todo, no sustituir, sino potenciar, el juicio clínico. “Recibir este premio supone para mí la validación de una idea que coloca a los psicólogos en el centro entre la IA y la salud mental”, afirma Doval.

El psicólogo, en el centro: “La IA no puede dictar el diagnóstico, porque perderíamos lo más valioso de la psicología: el juicio humano. No podemos tratar un problema humano con una respuesta automática que nadie sabe de dónde sale”.

Conocimiento, tendencias, excelencia profesional, espíritu emprendedor… En un entorno marcado por el debate hombre-máquina, la propuesta de Doval encaja por convicción y diseño, al aportar una tecnología que da transparencia y permite la rendición de cuentas a los resultados que produce un modelo algorítmico.

Del laboratorio a la consulta: una IA que explica por qué decide

El proyecto ganador de la docente de UNIR, MAE Loomee, nace al amparo de las becas posdoctorales Torres‑Quevedo, una línea de financiación pública que, durante tres años, sostiene la contratación de doctores en empresas para realizar I+D+i. “Trabajo en una empresa que integra la IA en las prácticas del psicólogo, con el objetivo de reducir la carga burocrática para poder dedicar más tiempo al paciente”, explica Doval.

sandra doval Sandra Doval Moreno, en un momento de la entrega del galardón.

MAE Loomee es un sistema de monitorización activa del estado emocional, capaz de recoger información cuantitativa (cuestionarios de ansiedad y depresión) y cualitativa (lenguaje espontáneo), procesarla y devolvérsela al profesional en formato auditable.

La clave está en una idea que esta investigadora repite como un mantra: “Explicar al psicólogo, que siempre debe estar en el centro, por qué la IA ha tomado esa decisión”, dice.

Doval explica que no se delega el razonamiento clínico en una caja negra, sino que se adopta una IA explicable (XAI) que, ante cada conclusión, pueda razonar en qué se basa, incluyendo el modelo de pesos en términos matemáticos que fundamentan la salida, palabras empleadas por el paciente, puntuaciones en escalas, evolución temporal de su discurso o variaciones de valencia emocional.

IA explicable: “Te voy a explicar por qué la IA ha tomado esa decisión; pero el psicólogo, siempre en el centro. Si no entendemos cómo razona el algoritmo, estamos trabajando a ciegas. Sin explicabilidad es un peligro silencioso en salud mental”.

“A lo mejor el programa te dice que se basa en que el paciente se ha expresado de esta manera o ha utilizado determinadas palabras; o también que se basa en las puntuaciones de un test o en cómo verbaliza sus sentimientos, lo que puede significar esto o aquello”, pone como ejemplo. Ese rastro que deja la máquina es la condición para sostener decisiones informadas que respeten el papel central del especialista clínico en la cadena de valor.

Algoritmos para descubrir el riesgo suicida

Su trabajo con IA aplicada al bienestar emocional no empieza con MAE Loomee. En su amplia formación —psicología, especialista en metodología del comportamiento, másteres en Machine Learning y Deep Learning, y una tesis doctoral sobre el análisis de la salud cerebral a través de magnetoencefalografía (MEG)— Doval ha desarrollado modelos de detección de conducta suicida a partir del lenguaje (PLN). “Estos modelos tienen tasas de clasificación muy buenas, entre el 80% y el 90% de aciertos”, apunta, tras un proceso de validación humana que implica entrevistas a jóvenes y adultos, un etiquetado experto y el ajuste fino de los algoritmos durante un año y medio.

En este largo y detallado proceso, Doval asegura que lo esencial no son los decimales, sino el margen de intervención que se gana “antes de que las ideas se consoliden”. La idea es trasladar estas herramientas, de momento, a los hospitales de Madrid como recurso gratuito para los equipos clínicos.

Pero el camino que se recorre no está exento de curvas: la protección de datos, especialmente cuando el análisis involucra patrones de voz y elementos prosódicos, exige protocolos de privacidad y anonimato muy exigentes en España. Un marco garantista que Doval valora, aunque reconozca que ralentiza algunas aplicaciones frente a países con regulaciones menos estrictas. “Nos exige mucho la ley de protección de datos, que está muy bien, pero todo es un poco más lento de cara a la aplicabilidad”, admite.

Lingüística clínica y cultura, claves

En el desarrollo, el lenguaje y sus matices es una cuestión fundamental: “Empezamos desde cero”, relata Doval sobre la batería de ‘screening’ [conjunto de pruebas cortas, sencillas y de bajo coste que se aplican a una población para identificar tempranamente posibles problemas, riesgos o necesidades] creada para MAE Loomee. Se trata de un cuestionario de ansiedad y depresión, acompañado de preguntas abiertas para capturar el lenguaje espontáneo del paciente.

El objetivo es doble: cuantificar síntomas y comprender matices del discurso (ambivalencia, ironía, sarcasmo), especialmente en castellano, un idioma que no suele ser dominante en los grandes modelos, normalmente entrenados en inglés. La validación cultural y clínica —defiende— es crítica si se quiere que la IA responda a poblaciones concretas. “Pretender que un modelo entrenado mayoritariamente en inglés funcione igual en español es ingenuo”, advierte.

Salud mental y cultura: “España no puede permitirse que la salud mental dependa de algoritmos entrenados en otra cultura”.

El énfasis en la lingüística clínica no es accesorio. Muchos sistemas que hoy se usan de forma cotidiana no se han entrenado con población clínica ni han pasado la revisión de profesionales, lo que los expone a errores ante casos con particularidades terapéuticas muy conocidas por los especialistas.

Doval utiliza un ejemplo en clase que funciona como la prueba del algodón: la fobia a la sangre y a las inyecciones. “Si le pides a un sistema generalista un protocolo para una persona con fobia a la sangre, te va a decir relajación; y yo, cuando veo eso, digo: suspenso”, señala. En este caso, el manejo correcto exige tensión para prevenir síncopes, un matiz crucial que la IA generalista suele pasar por alto.

Una profesora que enseña a dialogar con la IA

Doval confiesa que no le gusta usar la IA cuando implica renunciar a la búsqueda de fuentes y al pensamiento crítico. “Nos vuelve pasivos”, lamenta, tras comprobar en el aula que muchas entregas de los estudiantes ya delatan un uso acrítico de sistemas generativos. Su estrategia pedagógica para evitarlo es una invitación a la incomodidad productiva: hacer que la IA trabaje y luego someterla al juicio profesional. “Pídele a ChatGPT que te analice el caso y somete el resultado a tu valoración clínica personal y la de tus alumnos, para que aprendan a contrastar, referenciar y decidir”, dice.

Pensamiento crítico: “Pídele a ChatGPT que te analice el caso y somete esa respuesta a tu valoración clínica personal”.

Si algo teme Doval, es la delegación de responsabilidad en artefactos que, por diseño, exhiben un sesgo hacia la positividad o la complacencia: “Pueden dar la razón al usuario incluso cuando este se autodiagnostica en base a los contenidos de las redes sociales”, apunta.

Y es que, en consulta, ya se encuentra con pacientes que llegan con la etiqueta hecha: ‘He visto en TikTok que tengo seguramente TEA’. La psicología —advierte— no puede profesionalizar lo subjetivo, contextual y humano delegándolo en modelos no explicables.

La importancia de la formación continua

Una parte fundamental de este nuevo escenario clínico es la formación. En UNIR, Doval acumula dos años y medio de docencia. Comenzó impartiendo Intervención y Prevención en el Máster de Psicología General Sanitaria y, aunque la beca posdoctoral le obligó a reducir la carga docente, ha continuado dirigiendo TFM y coordinando prácticas.

Este mes de enero, adelanta, se reincorpora a la docencia, su espacio natural; mientras, en paralelo, cursa en UNIR el Máster de Formación Permanente en Inteligencia Artificial para la Ciencia del Comportamiento, que considera una culminación ordenada de su formación en IA: por primera vez, en este cruce disciplinar, percibe una especialización abierta a psicólogos, frente a la oferta dominada por requisitos de ingeniería informática. “Es el único máster que existe en español aplicado a las ciencias del comportamiento, y me sirve para cerrar muchos años de formación y para mejorar las propuestas”, destaca.

Investigación en el aula: redes sociales, ‘chatbots’ y simulación clínica

Junto con colegas de UNIR, Doval participa en una revisión sistemática sobre IA en salud mental, con el foco puesto en chatbots y modelos generativos, para entender las limitaciones, la eficacia y las formas de implementación. La meta es traslacional: imaginar escenarios de simulación clínica en la docencia que acerquen a los estudiantes a experiencias “lo más reales posibles, aunque simuladas”. El equilibrio, otra vez, es entre innovación y criterio: primero comprender cómo funcionan los sistemas y qué límites tienen; después decidir para qué usarlos.

El vínculo entre redes sociales y salud mental adolescente aparece con frecuencia en sus investigaciones y clases. Doval apunta, por ejemplo, a iniciativas de IA que detectan si una foto está editada y el grado de edición. Puede parecer trivial, pero si a una joven de 14 años se la expone de forma continuada a patrones de belleza imposibles, la exposición repetida puede provocar insatisfacción y malestar. Su enfoque no es censurar la IA, sino psicoeducar y etiquetar: informar del nivel de edición para aterrizar expectativas. Y, sobre todo, hablar de IA en los colegios, porque “no podemos eliminarla”.

Escuela e IA: “No podemos eliminar la IA, porque está aquí para quedarse; toca psicoeducar, como por ejemplo al etiquetar el nivel de edición en las fotos que ven los adolescentes”.

Su llamada a los centros educativos se articula en dos tiempos: explicar de dónde viene el conocimiento de las máquinas —que no es magia, sino el resultado de lo que investigamos y publicamos los humanos— y entrenar el juicio crítico para cuestionar elementos que pueden proceder de contenidos de baja calidad. Así, “la comunidad escolar podrá entender que el poder de la IA depende de qué datos le demos y que la responsabilidad de alimentar buen conocimiento es compartida”, asegura.

sandra doval La IA puede ser una herramienta fundamental para ayudar a los psicólogos sanitarios a identificar los problemas cada vez mayores que derivan del abuso de las pantallas por parte de niños y adolescentes.

Escuela y consentimiento informado: la línea roja de los datos

Doval considera que trabajar con estas herramientas en entornos con menores introduce una barrera de protección de datos que exige consentimientos y protocolos de privacidad y anonimato desde el inicio. En sus proyectos, se trabaja con cifrado doble y accesos restringidos “prácticamente imposibles de desencriptar”, explica.

Conocimiento: “La IA no es magia; si dejamos de generar conocimiento, ella también se estanca. El algoritmo puede ayudarte a detectar el riesgo, pero jamás debe decidir por ti”.

Pero en un contexto escolar nada es sencillo, porque siempre puede haber tensiones adicionales: “Si, por ejemplo, un cribado detecta un riesgo, el equipo no puede refugiarse en el anonimato; debe identificar y activar circuitos con la familia y, si procede, derivarlo a urgencias o a profesionales. Con cualquier indicio que haya, llamamos directamente a los familiares y evaluamos”, indica. Es la ética de la prevención, incluso si no hay “mucha guía” para recorrer ese terreno aún novedoso.

Los cuestionarios que emplea no utilizan eufemismos, preguntan de forma directa por ideas y planes suicidas. Pero antes de evaluar, el equipo normaliza el malestar: “Mucha gente se siente así; no eres diferente”, explican a los menores para que puedan verbalizar sin miedo o vergüenza.

Hablar de determinados temas ya es, en sí, terapéutico, porque visibiliza y desacraliza palabras como, por ejemplo, suicidio. Doval recuerda que el tránsito del pensamiento a la conducta es gradual; intervenir cuando surge la ideación pasiva (‘no quiero hacer algo activamente para acabar con mi vida, pero me gustaría no existir’) reduce la probabilidad de escalada. Esa lógica clínica también marca el diseño algorítmico: detectar valencias y patrones que anticipen riesgo y permitan actuar antes.

Una carrera entre la universidad y la empresa

La investigación es esencial para seguir avanzando. En su caso, el posdoctoral Torres‑Quevedo le permite, además, transitar entre la universidad y la empresa, entre la docencia y la investigación, gracias a los contratos cofinanciados de tres años para doctores en proyectos de I+D+i que impulsa este programa estatal. Una colaboración público-privada que se traduce en herramientas como MAE Loomee. “He aprendido que no quiero renunciar a la docencia ni a la investigación”, afirma, y su plan vital pasa por combinar ambos mundos y, de paso, seguir creciendo en el ámbito de las tecnologías emergentes.

Para ella, los psicólogos tienen que reivindicar un espacio que a veces han cedido en la frontera tecnológica, porque su formación, basada en la evidencia, les habilita para liderar la conversación.

En el ámbito de la investigación con IA, la docente del Máster en Psicología General Sanitaria de UNIR destaca el entrenamiento en castellano. “Muchos modelos se han entrenado con inglés, y traducir no basta. El español condensa ambivalencias e ironías que se pierden si la IA no aprende con población clínica local y bajo la auditoría de profesionales”, comenta. Esta reivindicación de datos propios y validaciones bien situadas puede marcar la diferencia entre herramientas seguras y ruido clínicamente improductivo.

La otra investigación que impulsa, en colaboración con la Universidad Complutense, aplica análisis de sentimientos a entrevistas de mujeres embarazadas con experiencias de trauma infantil. El modelo detecta temas —lactancia, relación con la madre, relación con la pareja— y valencias emocionales antes y después del parto.

Se busca detectar perfiles de vulnerabilidad que permitan intervenciones moduladas y ahorro de tiempo de exploración, para dedicar ese tiempo a la terapia. De nuevo, la explicabilidad es clave: el sistema no sólo clasifica, también señala las frases que sostienen esa clasificación. “Si puedo pasar una entrevista por la IA y que me diga que puntúa mal en la relación con la pareja, y lo tiene claro porque dice esto, esto y esto, entonces puedo hacer una intervención específica”, resume.

Doval marca hitos: en el proyecto con Hospital Clínico San Carlos y Medicina UCM, hay tres años de recogida de datos por delante; en MAE Loomee, la recogida arranca de inmediato y el sistema está prácticamente programado, pendiente del entrenamiento clínico.

En el proyecto del Hospital Clínico San Carlos y la Facultad de Medicina de la UCM, el horizonte práctico se sitúa a finales del próximo año para ver el sistema funcionando. “Son plazos ambiciosos, pero coherentes con las hojas de ruta de innovación aplicada. Confío en que a finales de 2026 esté ya todo operativo”, asegura.

Doval lanza también una crítica estructural al sistema actual: el DSM [el Manual Diagnóstico y Estadístico de los Trastornos Mentales, la guía clínica de referencia de la Asociación Americana de Psiquiatría (APA)], lo han construido mayoritariamente médicos, y eso ha propiciado, según ella, cierta patologización de conductas no patológicas.

Más especialistas y medios: “Tenemos muy pocos psicólogos por habitante en España, 6 por cada 100.000 frente a 18 en Europa”.

Además, también señala la falta de psicólogos en España: “Tenemos muy pocos por habitante, seis por cada 100.000 frente a los 18 en el resto de Europa”, afirma. Según ella, la cifra encadena dos urgencias: por un lado, el aumento de los recursos y el refuerzo del sistema público; y por otro, la extensión de tecnologías que aumenten la eficiencia sin sacrificar el criterio profesional.

En paralelo, el lenguaje cotidiano ha adjetivado trastornos severos (‘soy un poco TOC’, en referencia al Trastorno Obsesivo-Compulsivo), y las redes multiplican autodiagnósticos que llegan a consulta como certezas. Si a esto se añade que un modelo generativo está entrenado para complacer, el cóctel es delicado. De ahí la insistencia de Doval en la IA explicable, con el criterio clínico y el pensamiento crítico como diques frente a respuestas acríticas.

Pero si algo recorre su discurso es la idea de devolver tiempo. Los minutos que se ganan gracias a la IA explicable deben reaparecer en el vínculo con el paciente: más escucha, más exploración relacional, más ajuste fino de la intervención. En su visión, la buena tecnología no sustituye la relación, sino que la ensancha.

Alfabetización crítica como política preventiva

También llama la atención sobre la importancia clave de la educación. Doval sostiene que la psicoeducación tecnológica debe penetrar colegios y comunidades, porque “la IA ya no es un futurible, está al alcance de cualquiera”. La alfabetización que propone no se limita a saber usar; se centra en saber cuestionar: comprender de dónde sale una respuesta, con qué datos ha aprendido y qué sesgos arrastra.

El prestigioso Premio Psicofundación a Jóvenes Iniciativas de Emprendimiento en Psicología ‘Mercedes Rodrigo Bellido’, que Sandra Doval ha recibido en su XV edición en la categoría de Iniciativa Empresarial, por el proyecto MAE Loomee.

A los estudiantes que quieren cruzar psicología e IA, Doval les propone reivindicar el espacio de la psicología en tecnología, trabajar en equipo (clínicos, metodólogos, científicos de datos) y no resignarse al fatalismo de “no hay salida”. “Si alguien ya lo hizo, ¿por qué tú no?”, repite. A la vez, recuerda que el sistema debe apoyar con plazas, financiación y políticas, porque los psicólogos no son una ONG”, comenta.

En el horizonte inmediato, su equipo echará a andar la recogida de datos para MAE Loomee y estructurará la validación clínica con vistas a su implantación a finales de 2026. En paralelo, continuará la revisión de chatbots y modelos generativos aplicada a docencia.

Y todo, bajo el influjo del premio que acaba de recibir, que visibiliza una apuesta: la de desarrollar tecnología que se deje ver por dentro y que devuelva al clínico el control del proceso. Y un mensaje: la psicología del futuro inmediato no será la de cajas negras ni la de manuales inamovibles, sino la que dialogue con la IA desde la evidencia, la ética y la responsabilidad.

Hoja de ruta

En este panorama, Sandra Doval dibuja una hoja de ruta que se articula en tres ejes:

  1. IA explicable para no abdicar del juicio clínico y evitar cajas negras con autoridad inmerecida.
  2. Validación local en castellano y con población clínica, para evitar traducciones ingenuas y captar matices reales.
  3. Alfabetización crítica en escuelas y universidades: la mejor tecnología sólo funciona si el usuario comprende sus límites.
  • Facultad de Ciencias de la Salud

Títulos que te pueden interesar

Noticias relacionadas

Los medicamentos huérfanos mejoran la vida de pacientes con enfermedades raras

La importancia de los medicamentos huérfanos

Los medicamentos huérfanos mejoran la vida de pacientes con enfermedades raras. El último aprobado por la Agencia Europea de Medicamentos trata la epidermólisis bullosa, también llamada piel de mariposa.

Existen multitud de tipos de lesiones deportivas distintas

Tipos de lesiones deportivas más comunes en fútbol: diagnóstico y tratamiento

Una lesión es un daño que se produce en músculos, tendones, ligamentos o articulaciones. En fútbol, es común que aparezca a causa de una contusión, un mal movimiento o por estrés debido a la carga de entrenamientos y partidos.

Los alimentos ultraprocesados son productos industriales listos para consumir, formulados con ingredientes refinados y con aditivos para que duren más y resulten más apetecibles

Alimentos ultraprocesados: qué son y por qué evitar consumirlos

Los alimentos ultraprocesados son productos industriales listos para consumir, formulados con ingredientes refinados y con aditivos para que duren más y resulten más apetecibles.


Docencia 100% online

Nuestra metodología te permite estudiar sin desplazarte mediante un modelo de aprendizaje personalizado


Clases en directo

Nuestros profesores imparten 4.000 horas de clases online a la semana. Puedes asistir en directo o verlas en otro momento


Mentor - UNIR

En UNIR nunca estarás solo. Un mentor realizará un seguimiento individualizado y te ayudará en todo lo que necesites

La fuerza que necesitas

Graduación España 2024

Graduación España 2024

Acompañamiento personalizado