Francisco Oleo
Investigador, docente y especialista en el procesamiento del lenguaje natural, el director del Programa de IA Aplicada a la Ciberseguridad de UNIR analiza en esta entevista cómo la inteligencia artificial está transformando la seguridad a todos los niveles.

A caballo entre la universidad y la empresa, su trayectoria es la de un surfista que dibuja surcos en la gigantesca ola tecnológica que recorre el mundo. Para aterrizar en la inteligencia artificial, Fran Jáñez Martino tuvo que dejarse llevar por su intuición y tomar decisiones valientes. Terminó Ingeniería Industrial y Electrónica en la Universidad de León, una elección que pronto reveló no ser la definitiva. “Me di cuenta de que no era la carrera que me gustaba”, recuerda. Lo que realmente le atraía era un territorio aún incipiente para muchos estudiantes de entonces: la informática y, en particular, la inteligencia artificial. Un giro en tiempo y forma que marcaría el resto de una trayectoria profesional claramente ascendente.
La Universidad de León le permitió reconducir su formación y completar Ingeniería Informática en un par de años más. Durante el Trabajo de Fin de Grado entró en contacto con un grupo de investigación vinculado al Instituto Nacional de Ciberseguridad (INCIBE), que tiene su sede precisamente en la capital leonesa.
Aquel primer proyecto no fue una experiencia sin más: “Hice mi TFG con ellos, me ficharon después y empecé a trabajar a media jornada”. Corría el año 2018 y comenzaba para él una etapa clave de formación práctica, investigación aplicada y contacto directo con los problemas reales relacionados con la ciberseguridad.
Tras esa primera experiencia, Fran decidió ampliar horizontes y trasladarse a Málaga para cursar un Máster en Ingeniería de Software en Inteligencia Artificial, pero con un perfil claramente orientado a la investigación. Aquella etapa reforzó su inquietud por profundizar en el estudio científico de la IA y sus aplicaciones. El paso siguiente fue casi natural: iniciar un doctorado en colaboración con GVIS, el Grupo de Visión y Sistemas Inteligentes, formado por la Universidad de León y el INCIBE, y centrado en la criminalización de ciberamenazas, especialmente las que se originan en el correo electrónico.
Durante aproximadamente siete años, su trabajo se movió entre la universidad y el Instituto Nacional de Ciberseguridad, combinando docencia, investigación y proyectos aplicados. A ello se sumó una estancia internacional de siete meses en la Universidad de Bolonia, donde se especializó en el procesamiento del lenguaje natural (PLN), una parte de la inteligencia artificial que acabaría convirtiéndose en el eje central de su perfil profesional.
IA, lenguaje y delito digital
Su núcleo de trabajo durante estos años ha sido el análisis del lenguaje como lanza y escudo entorno a la ciberseguridad. ¿Por qué? Correos electrónicos fraudulentos, campañas de phishing, suplantaciones de identidad o estafas online comparten un elemento común: la palabra. “Obteníamos el texto del correo electrónico y analizábamos la estilografía, la semántica, el uso reiterado de ciertas palabras junto con las cabeceras”, explica. El objetivo no era solo detectar spam, sino comprender por qué los filtros tradicionales seguían fallando.
Uno de los grandes hallazgos de su investigación doctoral (cum laude) fue cuestionar un mantra ampliamente aceptado: la supuesta eficacia del 99% de los filtros antispam. “Si realmente fuera así, no seguiríamos recibiendo ataques a diario”, sostiene. El problema, según sus conclusiones, estaba en una clasificación excesivamente simplista entre lo que es spam y lo que no lo es, que ignoraba la complejidad real de los ataques modernos. La solución pasaba por identificar y categorizar los distintos tipos de amenazas, algo que solo podía hacerse con modelos avanzados de inteligencia artificial.
Ese trabajo tuvo enseguida una aplicación directa en sistemas de alerta temprana utilizados por organizaciones, como fue el caso de INCIBE. Gracias al análisis automático del lenguaje, los usuarios pueden recibir avisos claros cuando un correo suplanta, por ejemplo, a una entidad bancaria. “Están suplantando al Banco Santander, tenga cuidado”, sería el tipo de advertencia que genera el sistema de forma automática ante miles de correos diarios.
La ‘darknet’ o el lado más oscuro de internet
Más allá del correo electrónico, Fran Jáñez también ha trabajado en el análisis masivo de contenidos en la darknet, la parte oculta de internet, la que no vemos el común de los mortales.
Para muchos, este término se utiliza de forma imprecisa, pero él lo aclara con mucha pedagogía, lo que me viene más que bien. “La web superficial es la que usamos a diario y está indexada por buscadores. La deep web incluye todo aquello que no es accesible públicamente, como correos privados o documentos en la nube, por ejemplo. Pero la darknet es otra cosa: se trata de un espacio diseñado para anonimizar al máximo la identidad de usuarios y creadores”, explica y continúa con la clase particular: “Es muy útil para ciertas actividades legales, pero los cibercriminales la utilizan para la venta de drogas, armas, pornografía infantil o trata de personas”, afirma.
Darknet: “Los cibercriminales utilizan la cara oculta de internet para la venta de drogas, armas, pornografía infantil y trata de personas”.
Su trabajo consistía en aquel momento en descargar páginas, analizarlas, categorizarlas y detectar patrones mediante inteligencia artificial. Uno de sus primeros proyectos logró clasificar masivamente contenidos de la darknet por temáticas, separando lo lícito de lo ilícito.
Ese mismo enfoque se trasladó después a la web superficial, donde también se esconden actividades ilegales. Plataformas como Pastebin, diseñadas para compartir códigos, se habían convertido en canales para difundir datos robados. “Encontramos enlaces a cuentas filtradas, tarjetas de crédito o pornografía infantil”, recuerda. Aunque representaban solo un 1% del contenido, el volumen diario hacía que el impacto fuera enorme.
El coste humano de determinadas investigaciones
Trabajar con este tipo de contenidos tiene un precio emocional. Fran lo reconoce sin rodeos. En muchos casos, los modelos automáticos necesitan datos etiquetados manualmente. Eso implica leer, clasificar y nombrar contenidos extremadamente duros. “Tenía que etiquetar textos que describían pornografía infantil y trata de menores”, relata. Aunque no se trataba de imágenes, el impacto psicológico era considerable.
“Cada cierto tiempo tienes que parar”, admite, porque ver de forma continuada “cómo están utilizando a personas para hacer el mal te deja huella”. Extorsiones, falsificaciones y abusos forman parte del paisaje cotidiano de quienes trabajan en las tripas de internet. Una realidad que, para la mayoría de la sociedad, permanece invisible.
El coste emocional: “Cada cierto tiempo tienes que parar, porque estás viendo cosas terribles que hay en el mundo”.
El punto de inflexión de la ciberseguridad
Jáñez no tiene ninguna duda de que hoy estamos ante un punto de inflexión histórico en general y también en ciberseguridad, quizás porque trabaja a diario en la primera línea del mundo digital. “La inteligencia artificial ha llegado a un nivel que permite ataques masivos”, advierte. Ya no se trata solo de defender sistemas frente a humanos, sino de defendernos frente a otras inteligencias artificiales. “Vamos a recibir ataques de IA y debe ser otra IA la que nos proteja”, dice de una forma algo inquietante.
IA y ciberseguridad: “La inteligencia artificial ha llegado a un punto en el que permite ataques masivos y debe ser otra IA la que nos proteja”.
Se trata de una batalla en la que ambos bandos (los buenos y los malos) cuentan con ejércitos de agentes digitales inteligentes. Lo que antes era un enfrentamiento entre un atacante y un técnico de ciberseguridad, ahora se convierte en una escalada automatizada. “Es una guerra sin fin”, resume, utilizando el término anglosajón endless war para describir este ciclo perpetuo de ataque y defensa.
Guerra sin fin: “La ciberseguridad afronta una guerra automática e interminable entre el atacante y el defensor”.
Pero llegados a este punto, quiere dejar claro que la inteligencia artificial no es buena ni mala en sí misma. “Es una herramienta”, insiste. Todo depende del uso que se haga de ella. Los delincuentes la adoptarán con la misma rapidez que los defensores, y eso obliga a una actualización constante de conocimientos, estrategias y perfiles profesionales”.

Lenguaje, persuasión e ingeniería social
El lenguaje es el arma principal de muchos ataques. Desde la ingeniería social hasta la urgencia artificial que transmiten ciertos mensajes, todo se basa en manipular la percepción del receptor. Durante su estancia en Bolonia, Fran profundizó en la detección de la persuasión, la ironía y la ambigüedad, elementos que, durante años, los modelos no han sabido interpretar correctamente.
Lenguaje como arma: “La ingeniería social es la base de los hackers, y todo se reduce a la palabra, al lenguaje”.
“En 2022 los modelos eran muy planos. En cambio, hoy el escenario es muy distinto. La capacidad de entender dobles sentidos, la manipulación emocional o intenciones ocultas ha mejorado notablemente, lo que abre nuevas posibilidades tanto para el ataque como para la defensa”, comenta.
De la universidad a la empresa
Tras años en el ámbito académico, Fran afrontó, de nuevo, una decisión importante en su vida: continuar como profesor universitario o dar el salto a la empresa privada. Y optó por lo más inteligente: compaginar ambos mundos.
Primero se incorporó a SMARKIA, una empresa de León especializada en gestión energética. “Quería ver cómo funcionaba la industria”, asegura. En SMARKIA trabaja en el Departamento de Inteligencia Artificial aplicando el procesamiento del lenguaje natural a la optimización de la gestión energética. Su labor actual se centra en el desarrollo de agentes de IA capaces de interactuar con herramientas internas, mejorando procesos que antes requerían la intervención humana o métodos matemáticos tradicionales.
Docencia y formación del talento en UNIR
Paralelamente, Fran Jáñez es profesor en la Universidad Internacional de La Rioja (UNIR), donde imparte docencia en programas de análisis forense, peritaje informático e inteligencia artificial. Además, es el director académico del nuevo Programa de IA Aplicada a la Ciberseguridad, donde también acompaña los proyectos finales del alumnado.
Defiende una formación híbrida que combine programación, inteligencia artificial y ciberseguridad. “Porque si no te subes ya a la ola de la IA, esta acabará engullendo o te pasará por encima”, dice. El programa de UNIR está pensado tanto para perfiles técnicos como para profesionales que quieran actualizarse o reconvertirse, para lo que se necesita una base mínima en programación, especialmente en Python.
Formación clave: “En la nueva era digital, la verdadera brecha no será tecnológica, sino de conocimiento”.
Su mirada apunta a un futuro en el que la tecnología generará y resolverá problemas de forma permanente. En este bucle sin fin, lo esencial, advierte, no estará en frenar el avance continuo y cada vez más acelerado, sino en comprenderlo y gobernarlo. Porque, según afirma, “en la nueva era digital, la verdadera brecha no será tecnológica, sino de conocimiento”.
- Escuela Superior de Ingeniería y Tecnología






