UNIR Revista
¿Cuál debe ser el equilibrio entre la inteligencia artificial y los derechos humanos? El científico Manuel Alcañiz y el eurodiputado José Cepeda fueron los protagonistas del Foro UNIR en el que se abordaron asuntos como la privacidad mental, los neuroderechos, la tecnología empática, la regulación y la ética.

Los 7 puntos claves del Foro UNIR
- Privacidad mental: La protección de los pensamientos y emociones debe considerarse un nuevo derecho fundamental ante el avance de las neurotecnologías.
- Neuroderechos: Europa necesita una Carta de Neuroderechos que garantice la integridad mental, la autonomía cognitiva y el acceso equitativo a la tecnología.
- Tecnología empática: La combinación de IA, sensores cerebrales y realidad virtual permite desarrollar herramientas que respetan la dignidad humana.
- Regulación adaptativa: Es necesario un marco legal que proteja sin frenar la innovación, con medidas como los sandboxes regulatorios.
- Transhumanismo positivo: La integración de tecnología en el cuerpo humano no debe verse como una amenaza, sino como una oportunidad para mejorar la calidad de vida.
- Conciencia artificial: Aunque hoy no es posible, con un nuevo paradigma tecnológico podría llegar a simularse la conciencia en máquinas.
- IA y ética militar: La inteligencia artificial debe usarse con fines humanitarios. Su aplicación en defensa plantea dilemas éticos que requieren una regulación urgente.
El Foro UNIR sobre ‘IA y neurociencia: ética, regulación y retos en el equilibrio entre innovación y seguridad’, celebrado en el marco del ciclo “Las Fronteras Actuales de la Transformación Digital en el Mundo”, reunió a expertos de primer nivel para abordar uno de los debates más urgentes de nuestro tiempo: cómo avanzar en inteligencia artificial sin comprometer la dignidad humana. La convergencia entre neurociencia, tecnología inmersiva y algoritmos plantea oportunidades sin precedentes, pero también desafíos éticos y regulatorios que Europa debe afrontar con decisión.
Desde la neurociencia aplicada hasta los dilemas éticos y regulatorios, el encuentro abordó los desafíos de una tecnología que avanza más rápido que las leyes. La privacidad mental, los neuroderechos y el impacto social de la IA centraron un debate que exige respuestas urgentes. Europa, con su enfoque humanista, busca liderar este nuevo paradigma.
El evento contó con la participación de Mariano Alcañiz, director fundador del Laboratorio de Neurotecnologías Inmersivas (LabLENI) y catedrático de Ingeniería Biomédica en la Universitat Politècnica de València; José Cepeda, europarlamentario y director del ciclo “Las Fronteras Actuales de la Transformación Digital en el Mundo” de UNIR; y Jorge Heili, periodista y moderador del encuentro.
Una alianza transformadora
Mariano Alcañiz abrió el debate con una exposición detallada sobre cómo la neurociencia y la realidad extendida (XR) se han convertido en herramientas claves para comprender el comportamiento humano. “La XR actúa como un laboratorio para el cerebro que nos permite entender mejor nuestros procesos mentales y nuestros comportamientos en diferentes situaciones, pero sin los riesgos del mundo real”, explicó.
Desde los años 90, su equipo ha utilizado entornos virtuales para tratar fobias como la claustrofobia, sentando las bases de la terapia de exposición con realidad virtual. Hoy, gracias a la inteligencia artificial, estos entornos se han sofisticado hasta convertirse en sistemas capaces de detectar síntomas de depresión o estrés mediante el análisis de datos psicofisiológicos en tiempo real.
“La IA ha sido un cambio radical, un game changer absoluto”, afirmó Alcañiz. Su laboratorio combina algoritmos de machine learning con sensores cerebrales y realidad virtual para desarrollar tecnologías empáticas que respeten la autonomía del usuario. Esta convergencia permite diseñar intervenciones más eficaces en salud, educación y bienestar digital.
Tecnología centrada en el ser humano
Uno de los ejes del foro fue la necesidad de diseñar tecnologías centradas en el ser humano. “La neurociencia nos proporciona guías para crear una tecnología más intuitiva, menos invasiva y adaptada a nuestras capacidades cognitivas”, señaló Alcañiz. Conocer los límites de la atención o la memoria permite evitar sobrecargas cognitivas y anticipar efectos no deseados, como la ansiedad o la adicción.
José Cepeda, desde su experiencia como legislador europeo, subrayó la importancia de incorporar esta visión humanista en la regulación tecnológica. “Queremos que el ser humano sea el protagonista, por encima de cualquier circunstancia”, afirmó. En este sentido, destacó el papel pionero de Europa en la protección de datos personales y la necesidad de avanzar hacia una legislación específica sobre neuroderechos.
Uno de los conceptos más innovadores del foro fue el de privacidad mental, definido como la protección de pensamientos, emociones e intenciones antes de que sean expresadas. “Ya no se trata solo de proteger datos personales tradicionales, sino potencialmente de proteger la actividad cerebral”, advirtió Alcañiz.
Este tipo de información, obtenida mediante implantes cerebrales o test cognitivos en realidad virtual, requiere estándares éticos y de seguridad aún más estrictos. “Debemos tratar la información cerebral como un material altamente sensible, con protocolos similares o incluso superiores a los de los datos médicos”, añadió.
El consentimiento informado, la anonimización de señales neuronales y el procesamiento local de datos son algunas de las medidas propuestas para garantizar esta privacidad. Sin embargo, Alcañiz fue claro: “El marco ético o jurídico europeo actual aún no está preparado para esto”.
Jorge Heili, director de Foro UNIR, con el eurodiputado José Cepeda, director del ciclo ‘Las Fronteras Actuales de la Transformación Digital en el Mundo’ de UNIR.
Neuroderechos y regulación: el desafío legislativo
La conversación derivó hacia la necesidad de crear una Carta Europea de Neuroderechos, inspirada en iniciativas como la chilena, que en 2021 reformó su constitución para proteger la actividad cerebral. “Europa ha sido líder en protección de datos, pero en neurotecnología vamos por detrás de la ciencia”, lamentó Alcañiz.
Entre los derechos propuestos figuran la integridad mental, la autonomía cognitiva y el acceso equitativo a las tecnologías. Estos principios buscan evitar que la tecnología interfiera en los procesos mentales sin consentimiento o que genere desigualdades en su acceso.
Cepeda coincidió en la urgencia de avanzar en esta dirección: “La neurociencia aplicada a los contextos algorítmicos puede tener efectos adictivos o perjudiciales para el autocontrol del ser humano. Necesitamos productos europeos que respeten algorítmicamente al ser humano”.
Uno de los dilemas planteados fue cómo regular sin frenar la innovación. Alcañiz alertó sobre el riesgo de etiquetar ciertas tecnologías como “de muy alto riesgo” sin ofrecer apoyo a las startups o centros de investigación. “Eso puede significar más costes, más trabas administrativas, en un campo que ya de por sí es complejo”, advirtió.
Como solución, propuso la creación de sandboxes regulatorios, entornos controlados donde las empresas puedan probar sus desarrollos bajo supervisión. “Eso nos permitiría innovar y, a la vez, refinar qué requerimientos son realmente necesarios para la seguridad”, explicó.
¿Cyborgs entre nosotros?
El foro también abordó casos como el de Neil Harbisson, el primer hombre reconocido legalmente como cyborg. Para Alcañiz, este tipo de integración tecnológica no es nueva: “Los marcapasos o los neuroestimuladores para el Parkinson ya son formas de tecnología integrada en el cuerpo humano”.
Más allá de lo anecdótico, el experto defendió una visión positiva del transhumanismo: “No eres un cyborg, eres un humano al que la tecnología le ha permitido aumentar sus capacidades”. En su opinión, la clave está en que estas tecnologías respeten la autonomía y la dignidad de las personas.
Mariano Alcañiz, director fundador del Laboratorio de Neurotecnologías Inmersivas (LabLENI) y catedrático de Ingeniería Biomédica en la Universitat Politècnica de València.
Uno de los momentos más filosóficos del foro llegó con la pregunta sobre si la inteligencia artificial podría llegar a desarrollar conciencia. Alcañiz, con más de 30 años de experiencia en IA, fue prudente pero abierto: “Con la tecnología actual no es posible, pero con un cambio de paradigma y suficiente capacidad computacional, es tecnológicamente viable”.
Actualmente, los modelos de IA permiten simular pacientes con depresión para entrenar a psiquiatras, pero no tienen conciencia. “Lo que tenemos son máquinas que procesan información de forma muy rápida. Nada más y nada menos”, sentenció.
Neurotecnología y guerra: el lado oscuro de la IA
El foro no eludió los usos más controvertidos de la inteligencia artificial, como su aplicación en contextos militares. Cepeda expresó su preocupación por el creciente protagonismo de la IA en la defensa europea. Alcañiz explicó que “la IA, como cualquier tecnología, se puede usar para el bien o para el mal. Lamentablemente, evitar su uso no ético es complicado”.
Aun así, defendió que Europa debe liderar el desarrollo de tecnologías con fines humanitarios y sociales. “Si ponemos la IA a organizar mejor este mundo, a reducir desigualdades, puede ser una gran aliada”, concluyó.
Los mensajes principales de los expertos:
Mariano Alcañiz:
- “La neurociencia aplicada al diseño actúa como conciencia, como catalizador. Nos ayuda a crear herramientas digitales que potencian lo mejor de nosotros, en salud, en aprendizaje, pero minimizando a la vez los posibles daños”.
- “Debemos tratar la información cerebral como un material altamente sensible, con protocolos similares a los de los datos médicos, o incluso más, dado que potencialmente podrían revelar aspectos muy íntimos”.
José Cepeda:
- “La neurociencia aplicada a los contextos algorítmicos puede tener efectos adictivos o perjudiciales para el autocontrol del ser humano. Necesitamos productos europeos que respeten algorítmicamente al ser humano”.
- “La Unión Europea tiene que seguir dando pasos en la protección de los datos que afectan a la mente y al comportamiento. No podemos permitir que la innovación avance sin una regulación que garantice los derechos fundamentales”.
- Escuela Superior de Ingeniería y Tecnología