InternacionalAcceso estudiantes

La importancia de la ética en la inteligencia artificial

El desarrollo de la inteligencia artificial (IA) no solo conlleva beneficios sino también desafíos y riesgos para la sociedad. Por ello, son muchas las voces que llaman a considerar la ética en la IA.

La UNESCO insta a los países a adoptar marcos regulatorios.

La presencia de la inteligencia artificial (IA) es cada vez mayor, pero su desarrollo tiene una cara B: la IA puede generar consecuencias negativas para los individuos y para la sociedad, y ahí es donde entra en juego la ética en la inteligencia artificial. Un mal uso de la IA puede incrementar las desigualdades, o un algoritmo mal programado puede significar la discriminación de una persona en la toma de una decisión (por ejemplo, que se le deniegue un seguro médico).

Los asistentes de voz, las búsquedas predictivas en Google, las recomendaciones de productos en tiendas online, los chatbots, la domótica o los mapas son algunos ejemplos en nuestra vida cotidiana en los que la inteligencia artificial está implicada. Esto es posible porque la IA es capaz de procesar datos e información de una forma similar a la inteligencia humana. Los sistemas de inteligencia artificial abarcan, por tanto, aspectos como el razonamiento, el aprendizaje, la percepción, la planificación, la predicción o el control.

Acuerdos a nivel europeo y la UNESCO

A este respecto, la Unión Europea, en su propuesta de reglamento sobre inteligencia artificial, ya alerta de que la utilización de la misma por sus características (como la opacidad, la complejidad, la dependencia de datos o el comportamiento autónomo) puede tener repercusiones negativas en los derechos fundamentales.

Del mismo modo, la recomendación sobre la ética de la inteligencia artificial, aprobada por los 193 Estados miembros de la UNESCO en 2021, subraya las implicaciones éticas de la inteligencia artificial por su impacto “en la adopción de decisiones, el empleo y el trabajo, la interacción social, la atención de la salud, la educación, los medios de comunicación, el acceso a la información, la brecha digital, la protección del consumidor y de los datos personales, el medio ambiente, la democracia, el estado de derecho, la seguridad y el mantenimiento del orden, el doble uso y los derechos humanos y las libertades fundamentales, incluidas la libertad de expresión, la privacidad y la no discriminación”.

La recomendación de la UNESCO también llama la atención sobre los desafíos éticos que surgen debido al potencial de los algoritmos de la IA “para reproducir y reforzar los sesgos existentes, lo que puede exacerbar las formas ya existentes de discriminación, los prejuicios y los estereotipos”.

Por todo ello, el acuerdo de la UNESCO insta a los países a adoptar marcos regulatorios que garanticen que las tecnologías de inteligencia artificial estén al servicio de los intereses de los ciudadanos y beneficien a la humanidad en su conjunto.

A este respecto, la Ley 15/2022 integral para la igualdad de trato y la no discriminación es la primera aproximación normativa en el ámbito español sobre el uso de la inteligencia artificial por las administraciones públicas y las empresas. Según esta ley, las administraciones públicas “favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente”. Del mismo modo, administraciones y empresas promoverán el uso de una inteligencia artificial “ética, confiable y respetuosa con los derechos fundamentales”.

etica-inteligencia-artificial

Agencia Española de Supervisión de la Inteligencia Artificial

Un paso más en este objetivo de poner encima de la mesa la ética en el desarrollo de la IA es la creación de una Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), que se encargará de supervisar el cumplimiento de la regulación europea en materia de inteligencia artificial. Regulación que la Unión Europea está en estos momentos completando, con una propuesta de reglamento.

La ética en la inteligencia artificial no es, por tanto, una cuestión baladí. De hecho, el Máster en Inteligencia Artificial online de UNIR no solo forma a sus alumnos en las cinco ramas principales de la IA (aprendizaje automático, aprendizaje profundo, planificación, procesamiento de lenguaje natural y visión por computador) sino que presta atención a las implicaciones filosóficas, éticas y legales en la aplicación de la inteligencia artificial.

    Títulos que te pueden interesar

    Noticias relacionadas

    La programación concurrente y su utilidad actual y futura

    La programación concurrente permite desarrollar software que ejecuta eventos o circunstancias que están sucediendo o existen al mismo tiempo.

    El recurso preventivo, ¿en qué consiste este perfil y cuándo es necesario?

    En actividades peligrosas o con riesgos especiales, la ley obliga a las empresas a disponer de personal en el centro de trabajo que vigile el cumplimiento de la normativa de PRL.

    ¿Qué es DevSecOps y en qué consiste esta metodología?

    La metodología DevSecOps busca integrar la seguridad en todos los procedimientos para desarrollar un software con el objetivo de que sea de mayor calidad y eficiencia.

    Docencia 100% online

    Nuestra metodología te permite estudiar sin desplazarte mediante un modelo de aprendizaje personalizado

    Clases en directo

    Nuestros profesores imparten 4.000 horas de clases online a la semana. Puedes asistir en directo o verlas en otro momento

    Mentor - UNIR

    En UNIR nunca estarás solo. Un mentor realizará un seguimiento individualizado y te ayudará en todo lo que necesites

    La fuerza que necesitas

    Nuestra vida académica y social

    Acompañamiento personalizado