InternacionalAcceso estudiantes

Declaración UNIR para un uso ético de la Inteligencia Artificial en Educación Superior

Esta declaración tiene como objetivo sentar unas bases de consenso que guíen a todos los actores que forman parte del grupo Proeduca (profesores, estudiantes, personal de gestión, junta de gobierno, investigadores, etc.) en el uso, aplicación, e incluso desarrollo de soluciones basadas en IA.

Daniel Burgos, director de UNIR iTED, editor principal de la Declaración.

La humanidad está viviendo una apasionante e imparable transformación digital desde las pasadas décadas. La última fase de este proceso revolucionario es, sin duda, la implantación masiva de servicios, productos y dispositivos basados en Inteligencia Artificial (IA) y que la ponen al alcance del gran público, con aplicaciones que pueden utilizarse en contextos cotidianos.

Si bien la inteligencia artificial vio su nacimiento en los años cincuenta del siglo XX (Turing, 1950), no ha sido hasta la pasada década cuando ha alcanzado niveles de uso, penetración y democratización generalizados.

Esto ha sido posible gracias, en gran medida, al advenimiento de sistemas microelectrónicos increíblemente potentes, con gran capacidad de procesamiento, baratos y con alto grado de miniaturización, junto con la disponibilidad universal de ingentes bases de datos que los algoritmos basados en IA necesitan como parte de su fase de entrenamiento. En la práctica, casi la totalidad de dispositivos, programas y sistemas de acceso a la información hacen ya uso de esta tecnología de manera directa o indirecta.

Indiscutiblemente, la IA forma ya parte íntima de nuestra vida digital  y, como todo ingenio fruto del progreso humano, tiene sus aspectos positivos (principalmente, la mejor organización de la información no estructurada), pero también otros negativos (como la introducción de sesgos y la potencial intromisión en la privacidad). Asimismo, la IA puede aumentar el acceso de información, conocimiento y educación dentro de cualquier sector económico y cultural.

Este desarrollo de la Inteligencia Artificial ya afecta de manera radical a todos los sectores productivos, y durante la próxima década impactará también a la práctica totalidad de los empleos, haciendo que algunos desaparezcan, otros nuevos surjan y  la inmensa mayoría mute de alguna forma.

Esto sucederá especialmente en la Educación, donde la IA tiene el potencial de complementar y/o sustituir la función formadora y/o evaluadora de la capa docente, así como de proporcionar al estudiante recursos y herramientas que faciliten, y potencialmente remplacen, los esfuerzos individuales o colectivos para mejorar su rendimiento académico. En este sentido, las instituciones de Educación Superior pueden facilitar la transición de nuevas demandas de empleo según vayan evolucionando los escenarios laborales y la penetración de la IA.

La Universidad Internacional de La Rioja (UNIR), junto con el resto de universidades y empresas que componen el grupo educativo Proeduca, debe adaptarse a las necesidades de un mundo en constante desarrollo. Por este motivo, como miembros de una institución que produce y transmite conocimiento y cultura, tenemos el reto de conciliar los aspectos más provechosos de la IA con nuestra realidad docente e investigadora.

Esta declaración tiene como objetivo sentar unas bases de consenso que guíen a todos los actores que forman parte del grupo (profesores, estudiantes, personal de gestión, junta de gobierno, investigadores, etc.) en el uso, aplicación, e incluso desarrollo de soluciones basadas en IA.

Inicialmente, se proporciona una definición de IA de manera general, así como sus aplicaciones más actuales. A continuación, se comentan varias aplicaciones interesantes (pero también de riesgo) de la misma. Por último, se esboza el papel de UNIR a la hora de tratar de convertirse en un modelo de referencia para la aplicación de normativas mundiales sobre IA o cualquier otra tecnología que genere un reto social, a través de su ecosistema centrado en los estudiantes.

¿Qué es realmente la IA?

Para definir la IA, podríamos remitirnos, entre otras muchas, a la interpretación dada por la UNESCO (2021), según la cual, “los sistemas de IA son tecnologías de tratamiento de la información que integran modelos y algoritmos y que producen una capacidad de aprendizaje y de realización de tareas cognitivas. Estas conducen a resultados tales como la predicción y la toma de decisiones en entornos materiales y virtuales. Los sistemas de IA están diseñados para funcionar con diversos grados de autonomía mediante el modelado y la representación de conocimientos, así como la explotación de datos y el cálculo de correlaciones”.

Otra definición proviene del reputado científico de la computación y uno de los padres de esta disciplina, John McCarthy (McCarthy, 2007), al que alude IBM, una de las  multinacionales informáticas referencia en la materia (IBM, 2023): “La inteligencia artificial es la ciencia y la ingeniería de la fabricación de máquinas inteligentes, especialmente programas informáticos inteligentes. Está relacionada con la tarea similar de usar ordenadores para entender la inteligencia humana, pero la IA no tiene que limitarse a métodos que son biológicamente observables”.

Dentro de la IA existe una especial mención a la IA general o fuerte, que se define como la inteligencia de las máquinas que les permite comprender, aprender y realizar tareas intelectuales de manera muy similar a los humanos (e.g., IA generativa). La AI general o fuerte emula la mente y el comportamiento humano para resolver cualquier tipo de problema complejo (Goertzel, 2007). Una evolución sería el concepto de singularidad y el riesgo asociado, que supondría la eventual superación de la inteligencia humana desde la propia IA, mediante la aplicación recursiva de sí misma (Von Neumann, 1958).

Fundamentos y aplicaciones actuales de la IA

La Inteligencia Artificial se puede aplicar en una amplia variedad de áreas, como el procesamiento del lenguaje natural, la visión por computadora, la robótica, el reconocimiento de voz y muchas otras. El objetivo común a todas ellas es el de realizar tareas de manera autónoma o asistir a los seres humanos en la toma de decisiones y la resolución de problemas.

Toda IA realizará normalmente una de estas dos funciones: la clasificación y/o la predicción. A partir de estas dos funciones, existen otras derivadas, como el resumen, la interpretación y la generación de nuevos resultados no inferidos de un histórico.

Un clasificador ordena información nueva en clases o grupos previamente conocidos. Por otro lado, un predictor se refiere a un algoritmo basado en IA que es capaz de generar nuevos valores artificiales a partir de un histórico de datos. Ambas funciones se apoyan a su vez en varios fundamentos computacionales complementarios: las redes neuronales, el aprendizaje profundo, el aprendizaje máquina, la extracción de datos y la extracción de características, entre otros.

A partir de todos estos pilares, a lo largo del tiempo se han ido construyendo distintas soluciones más refinadas, especializadas y abiertas al público general (a través de la web, APIs, aplicaciones de escritorio o móvil), como los transformadores generativos pre-entrenados (GPT), el procesado de lenguaje natural (NLP), el reconocimiento de imágenes (típicamente con máquinas de vectores de soporte o SVM), o la inferencia generativa (en imágenes o textos, por ejemplo).

El uso responsable de la IA: un reto para la sociedad, un reto para la Universidad

Las tecnologías informáticas, estadísticas, de sistemas de información, de sistemas de comunicación, de redes sociales y robóticas basadas en IA impregnan el panorama digital de manera más extensa de lo que a menudo somos conscientes. En este contexto de uso legítimo, pero indiscriminado de la IA y en el que la humanidad parece unida en torno a una suerte de usufructo irreflexivo de la misma, varias organizaciones de pensadores y activistas han levantado la voz de alarma.

Cabe destacar el reciente caso protagonizado por los fundadores del Future of Life Institute (FLI) (Future of Life Institute, 2023). Los patronos del FLI han presentado a la sociedad una carta abierta en la que se aboga por una pausa activa en el desarrollo de la IA para la reflexión en lo que concierne a los grandes despliegues de sistemas de consulta para uso público.

En esta misiva se argumenta que la creación de mentes artificiales con capacidades aparentemente sobrehumanas puede constituir una eventual amenaza para la humanidad. Menos acusado, pero quizás un problema más inmediato, es el hecho que la sociedad se apoya de manera general y con alto nivel de dependencia en el aprendizaje profundo, y que este, a su vez, se construye sobre los modelos llamados de caja negra, que resultan inexplorables y altamente no deterministas.

Estas estructuras matemático-computacionales de naturaleza caótica pueden también introducir sesgos imposibles de rastrear y/o resultados altamente erróneos de manera totalmente desapercibida para usuarios y los propios creadores. Las consecuencias del uso generalizado de estos sistemas para ciudadanos, instituciones y sociedades son aún imprevisibles.

Aparte de las bien intencionadas declaraciones como la ya citada Pause Giant AI Experiments: An Open Letter del FLI y otras como el marco Directrices éticas para una IA Fiable de la Unión Europea (EU, 2019) o Inteligencia Artificial y educación. Guía para las personas a cargo de formular políticas de la UNESCO (UNESCO, 2021a) no existen legislaciones, directrices oficiales o políticas ratificadas de manera nacional o internacional. No obstante, sí existe algún esfuerzo institucional al respecto, como la propuesta en progreso de regulación europea sobre IA (EU, 2021).

En cualquier caso, el sentido común impone las siguientes limitaciones que todos podemos suscribir: una IA debe ser lícita, es decir, cumplir todas las leyes y reglamentos aplicables. También ha de ser ética, de modo que se garantice el respeto de los principios y valores éticos. Por último, debe ser robusta, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si estos han sido programados con buenas intenciones, pueden provocar daños accidentales.

Sin embargo, por el momento, es responsabilidad (y voluntad) de cada institución, grupo de interés, colectivo e individuo delimitar el marco de influencia de las tecnologías IA en su ámbito concreto y de auto auditarse, si así lo desea, en la aplicación y respeto por el mismo. Este marco puede tener forma de código de conducta, decálogo de directrices o de manifiesto. En UNIR, así como en Proeduca, como grupo educativo centrado en el estudiante, se ha optado por este último formato.

Declaración UNIR para un uso ético de la IA en Educación Superior

El enfoque de UNIR sobre a la IA puede resumirse en la siguiente declaración, aplicable a cualquier empresa, fundación, universidad o institución de cualquier carácter dependiente de la misma matriz educativa, Grupo Proeduca. El manifiesto se ha confeccionado teniendo en cuenta la documentación, guías y marcos referenciados en este documento.

Los siguientes principios fundamentan el diseño, desarrollo y aplicación de las soluciones y herramienta de IA en UNIR. El orden de la lista no refleja la prioridad de los principios, que se abordan e implementan con el mismo grado de importancia:

  • Principio de Contribución Social: Se garantizará el alineamiento entre los intereses propios de proyectos científicos y esfuerzos técnicos relacionados con la IA y aquellos de la sociedad, en general o de los sectores donde se aplique, ya sean industriales, educativos, de servicios, o cualquier otro.
  • Principio de Equidad: Se enfatizará el uso de sistemas IA sin ningún tipo de discriminación de usuario o público objetivo. El uso de productos, tecnologías y servicios IA no estigmatizará, incriminará o discriminará por razón de sexo, etnia, credo, religión, edad, discapacidad, afinidad política, orientación sexual, nacionalidad, ciudadanía, estado civil o estatus socioeconómico, o cualquier otra condición personal, física o social (UNIR, 2020). Se evitarán, por tanto, los sesgos por sectores, dentro de los márgenes posibles, en la configuración y desarrollo de productos y servicios IA. También se evitará el sesgo algorítmico inherente a esta disciplina a día de hoy, tanto en los desarrollos propios como en los productos IA de terceros y usados en cualquier capa del grupo educativo (gestión ejecutiva, gestión académica, docencia, atención al estudiante, ) Se vigilará que la IA no perpetúe ni amplifique desigualdades existentes, sino que sea una herramienta para fomentar la equidad y la inclusión en la sociedad.
  • Principio de Capacitación: Se capacitará en la utilización de sistemas. Se formará a empleados, estudiantes, profesores y otros profesionales para que sigan prácticas responsables en el uso, distribución, divulgación y producción de las tecnologías y servicios basados en IA, coherentes con las normas éticas del grupo. Asimismo, se fomentará la concienciación sobre los mismos, a cualquier nivel, en cualquier sector del ecosistema educativo.
  • Principio de Supervisión: Se mantendrá el uso, configuración e implementación de la IA de forma completamente controlada por personal competente, dejando en su juicio la última decisión sobre cualquier aspecto relacionado, sin ser delegado el mismo en sistemas AI que tomen decisiones completamente automatizadas.
  • Principio de Ética: Se garantizará la ética de los desarrollos propios en IA. Se investigará, implementará y hará uso de sistemas IA propios de acuerdo con las Directrices Éticas de Confianza (EU, 2019a), en consonancia con el Código de Conducta Europeo para la Integridad en la Investigación (ALLEA, 2023).
  • Principio de Confidencialidad: Se fomentará la seguridad y privacidad de datos en uso y desarrollo de sistemas IA. En el caso de configuraciones de uso de productos propios o externos, y en el caso de desarrollos llevados a cabo dentro del grupo educativo (como productos de investigación o soporte), se respetará la confidencialidad del individuo o corporación y se protegerá la privacidad de los datos personales, así como de cualquier dato almacenado, recuperado de manera automática o recogido en forma de campo expreso, cumpliendo la política de privacidad del Grupo Proeduca y con la legislación vigente en el código civil español (en concreto, la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales). Del mismo modo, se protegerán los datos y documentos de Proeduca contra una exposición externa no consentida.
  • Principio de Transparencia: Se promoverá la transparencia de uso y producción de IA. Este aspecto tiene dos vertientes. Por un lado, como institución que hace uso de sistemas IA, Proeduca se compromete a dar cuenta de la aplicación de estos, contexto y alcance. Por otro, como institución comprometida con la investigación, y, por tanto, con la eventual producción de inteligencias artificiales, Proeduca será transparente sobre determinados aspectos sensibles (tales como el modelo neuronal subyacente o los bancos de datos empleados como entrenamiento).
  • Principio de Sostenibilidad: Se alentará la sostenibilidad en la utilización de la IA. Se garantizará la sostenibilidad y desarrollo equilibrado y responsable de sistemas basados en IA, adoptando una postura innovadora y colaborativa sobre impacto ambiental y consumo energético. Se procurará dejar la menor huella ecológica posible y la aplicación del principio DNSH (No Causar Daño Significativo, por sus siglas en inglés) (EU, 2021a).
  • Principio de Conocimiento: Se fomentará la colaboración y el intercambio de conocimientos. En una esfera de conocimiento tan interdisciplinar como es la Inteligencia Artificial, se fomentará la colaboración entre investigadores y pensadores de diferentes campos: científicos de datos, ingenieros, filósofos, legisladores, , de cualquier ámbito, categoría profesional y escala académica.
  • Principio de Trazabilidad: Se garantizará la identificación y trazabilidad de los contenidos producidos por IA. Todo sistema de IA generativa desarrollado o utilizado por Proeduca indicará claramente su origen artificial y su trazabilidad asociada de manera inequívoca, ya sean imágenes, vídeos o textos.

Asimismo, se implementará un sistema de auditoría y seguimiento interno eficaz, dependiente de un comité multi-disciplinar sobre el desarrollo y uso de procesos, servicios y productos propios (o de integración de ajenos) para evaluar periódicamente el nivel de cumplimiento del compromiso que establece el presente manifiesto, así como para sugerir medidas correctivas y transparentes en caso de identificar cualquier desviación significativa.

Alcance e integridad

Desde UNIR, reconocemos el impacto transformador de la IA en nuestro entorno, y somos plenamente conscientes del gran potencial que ofrece para facilitar y potenciar una educación de calidad para todos. UNIR se compromete a utilizar la inteligencia artificial de manera ética y responsable, a potenciar el conocimiento, promover la innovación y beneficiar a la sociedad en su conjunto.

El manifiesto aquí expuesto pretende establecer los principios fundamentales que guiarán las decisiones en este vertiginoso campo del saber humano, en todas las universidades, empresas y entidades del Grupo, incluyendo todas las capas y roles que los componen: profesores, investigadores, estudiantes, gestores académicos, consejos directivos, cargos intermedios, expertos y cualquier otro relacionado. UNIR fomentará un enfoque centrado en el beneficio de la sociedad, la transparencia y la colaboración, a la vez que promoveremos la ética, la educación y la responsabilidad, en cada paso de su utilización.

Referencias

ALLEA (2023). The European Code of Conduct for Research Integrity. Retrieved July, the 10th, 2023, from https://allea.org/code-of-conduct/

EU (2019). Directrices éticas para una IA fiable. EU Publications. DOI: https ://doi.org/10.2759/14078.

Retrieved July, the 10th, 2023, from https://op.europa.eu/es/publication-detail/-

/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1

EU (2019a). Ethics Guidelines for Trustworthy AI. Retrieved July, the 9th, 2023, from https://futureoflife.org/open-letter/pause-giant-ai-experiments/https://ec.europa.eu/futurium/en/ai- alliance-consultation.1.html

EU (2021). Regulation of the European parliament and of the council. Laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts. Retrieved June, the 7th, 2023, from https://artificialintelligenceact.eu/the-act/

EU (2021a). Do No Significant Harm. Retrieved July, the 10th, 2023, from https://knowledge4policy.ec.europa.eu/glossary-item/do-no-significant-harm_en

Future of Life Institute (2023). Pause Giant AI Experiments: An Open Letter. Retrieved June, 7th, 2023, from https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Goertzel, B. (2007). Artificial general intelligence (Vol. 2, p. 1). C. Pennachin (Ed.) New York: Springer.

IBM (2023). What is artificial intelligence?. Retrieved June, the 1st, 2023, from https://www.ibm.com/topics/artificial-intelligence

McCarthy, J. (2007). What is Artificial Intelligence. Computer Science Department, Standford University.

Retrieved June, the 1st, 2023, from http://jmc.stanford.edu/articles/whatisai.html

Turing, A. (1950). Computing Machinery and Intelligence. Mind 49, pp. 433-460 UNESCO (2021). Inteligencia artificial . Retrieved June, the 1st, 2023, from

https://www.unesco.org/es/artificial-intelligence

UNESCO (2021a). AI and education. Guidance for policy-makers. DOI: https://doi.org/10.54675/PCSP7350. Retrieved July, the 10th, 2023, from https://www.unesco.org/en/artificial-intelligence

UNIR (2020). Segundo Plan de igualdad UNIR. Retrieved July, the 10th, 2023, from http://research.unir.net/wp-content/uploads/2022/10/PlanIgualdad_UNIR_octubre2020.pdf

Von Neumann, J. (1958). The computer and the brain. New Haven, Connecticut: Yale university press.

Créditos

Editor:

  • Daniel Burgos. Vicerrector de Proyectos Internacionales, Director del Instituto de Investigación  UNIR iTED, Catedrático en Tecnologías para la Educación y la Comunicación. Universidad Internacional de La Rioja (UNIR)

Contribuidores (orden alfabético):

  • Corbí, Director del Grado en Física, miembro del Instituto de Investigación UNIR iTED, Director de la Cátedra IBM-UNIR en Ciencia de los Datos y Education (2021-2023), Doctor en Ciencias Físicas. UNIR
  • Frías, Enrique. Investigador senior del Instituto UNIR iTED, Director de la Cátedra IBM-UNIR en Ciencia de los Datos y Education (2023-2025), Doctor en Informática. UNIR
  • Ghorbal, Bad’r. Doctor en Geofísica, gestor de proyectos senior del vicerrectorado de Proyectos Internacionales. UNIR
  • González Crespo, Rubén. Vicerrector de Organización y Planificación Académica. Catedrático en Ciencias de la Computación e Inteligencia Artificial, UNIR. Director Académico Global, Proeduca. Editor jefe de la revista científica The International Journal of Interactive Multimedia and Artificial Intelligence (IJIMAI)
  • Griffiths, David. Investigador senior del Instituto de Investigación UNIR iTED, Doctor en Cibernética. UNIR
  • Martín Algarra, Bosco. Director de Comunicación. UNIR
  • Moreno Ger, Pablo. Vicerrector de Investigación, Director de la Escuela de Doctorado EDUNIR, Profesor Titular en Ciencias de la Computación e Inteligencia Artificial. UNIR
  • San José, José Carlos. Director de Desarrollo del vicerrectorado de Proyectos Internacionales. UNIR
  • Villegas García, Margarita. Consejera, ex CTO. Proeduca

Copyright y referencia

© Universidad Internacional de La Rioja (UNIR) / Proeduca. Licencia de uso bajo Creative Commons CC-BY-NC: https://www.creativecommons.org/licenses/by-nc/4.0/deed.es

Citar como: “Universidad Internacional de La Rioja (2023). Declaración UNIR para un uso ético de la Inteligencia Artificial en Educación Superior. Proeduca. DOI: https://doi.org/10.5281/zenodo.10686437

Versión: 1.0
Fecha: 21 de diciembre de 2023

Descargar la Declaración UNIR para un uso ético de la IA en Educación Superior

qr

https://bit.ly/unir-ia

 

 

    Docencia 100% online

    Nuestra metodología te permite estudiar sin desplazarte mediante un modelo de aprendizaje personalizado

    Clases en directo

    Nuestros profesores imparten 4.000 horas de clases online a la semana. Puedes asistir en directo o verlas en otro momento

    Mentor - UNIR

    En UNIR nunca estarás solo. Un mentor realizará un seguimiento individualizado y te ayudará en todo lo que necesites

    La fuerza que necesitas

    Nuestra vida académica y social

    Acompañamiento personalizado