InternacionalAcceso estudiantes

La historia del ‘machine learning’, del siglo XVII al futuro

Los orígenes del ‘machine learning’ se remontan 400 años atrás, desde la primera calculadora mecánica de Blaise Pascal en 1642, el primer juego automático de damas de Arthur Samuel de 1952 o el primer vehículo autónomo de 1979.

Un robot desarrollado para funcionar con IA.

Los hitos más representativos de la historia del machine learning, recopilados en esta infografía descargable de UNIR, demuestra que viene de muy lejos en el tiempo. Un recorrido apasionante que ha inspirado desde siempre no solo a científicos, sino incluso a artistas y escritores.

“Si tengo razón, significa que la Máquina está conduciendo nuestro futuro no única y simplemente como una respuesta directa a nuestras preguntas directas, sino como respuesta general a la situación del mundo y a la psicología humana como un todo. Y sabe que nos puede hacer desgraciados y herir nuestro amor propio. La Máquina no puede, no debe, hacernos desgraciados”. Isaac Asimov dramatizaba en 1950 en su novela “Yo, robot” cómo serían en un futuro (ahora nada lejano) las relaciones entre los hombres y las máquinas, gobernadas por sus tres leyes de la robótica.

Sin llegar a ese escenario de novela de ficción, las máquinas empiezan hoy a tomar, si no conciencia de si mismas, unas actitudes basadas en algoritmos y en millones de datos, que sustituyen en muchos casos con éxito la acción y la actividad humana. Detrás está la inteligencia artificial, que tiene en el machine learning (aprendizaje automático) una de sus ramas que permite que las máquinas aprendan sin ser expresamente programadas para ello.

Se trata de una habilidad indispensable para hacer sistemas capaces de identificar patrones entre los datos para hacer predicciones. Esta tecnología está presente en un sinfín de aplicaciones como las recomendaciones de Netflix o Spotify, las respuestas inteligentes de Gmail o las palabras de Siri y Alexa. Son destrezas de hoy enfocadas hacia el mañana, pero que hunden sus raíces en el lejano siglo XVII.

Un poco de historia

La historia del machine learning comenzó en 1642 con Blaise Pascal y la primera calculadora mecánica que creó empleando engranajes y ruedas. Con el inicio del siglo XIX, en 1801, Joseph-Marie Jacquard, tejedor y comerciante francés crea el primer telar programable con tarjetas perforadas, el telar de Jacquard, la máquina antecesora del almacenamiento de datos actual. Y el científico inglés George Boole, padre de la lógica matemática, puso las bases en 1854 de la aritmética computacional moderna.

Herman Hollerith es considerado el primero que logra el tratamiento automático de la información a través de su tabulador electromagnético de tarjetas perforadas. Pero fue Alan Mathison Turing el precursor de las computadoras modernas. Matemático, criptólogo, experto en lógica e informática teórica, está considerado como uno de los padres de la ciencia de la computación y precursor de la informática moderna.

En 1943 creó una máquina electromecánica con la que se logró desbloquear los códigos secretos de los submarinos alemanes, un hecho que fue clave en la resolución de la contienda a favor de los aliados.

robótica

Casi 10 años después, Arthur Samuel, un científico de IBM, desarrolla el primer programa de ordenador capaz de aprender. El software era un programa que jugaba a las damas y que mejoraba su juego partida tras partida.

Los ejemplos de cómo la inteligencia artificial está cambiando la forma de actuar de las máquinas (machine learning) se suceden hoy y forman parte ya de nuestro día a día:

  • Reconocimiento de voz: es una funcionalidad que utiliza el procesamiento de lenguaje natural (NLP) para procesar el habla humana en formato escrito. Muchos dispositivos móviles lo incorporan en sus sistemas para realizar búsquedas de voz, por ejemplo, Siri, o aumentar la accesibilidad de la escritura.
  • Servicio al cliente: los chatbots en línea están sustituyendo a las personas en la interacción con el cliente. Responden a preguntas frecuentes (FAQ) sobre distintos temas, por ejemplo, el envío, o proporcionan asesoramiento personalizado, ofrecen productos de venta cruzada o recomiendan distintos tamaños para los usuarios, cambiado la forma de interactuar con los clientes en los sitios web y las plataformas de redes sociales.
  • Visión por ordenador: esta tecnología de IA permite a los ordenadores y sistemas obtener información significativa a partir de imágenes digitales, vídeos y otras entradas visuales y, en función de esas entradas, realizar distintas acciones. Tiene aplicaciones en el etiquetado de fotografías en redes sociales, las imágenes radiológicas en la atención médica y los coches de conducción autónoma en la industria del automóvil.
  • Motores de recomendación: utilizando datos de comportamiento de consumo anteriores, los algoritmos de IA permiten descubrir tendencias de datos que pueden utilizarse para desarrollar estrategias de venta cruzada más eficaces. Esto se utiliza para hacer recomendaciones complementarias relevantes a los clientes durante el proceso de compra en las tiendas en línea.
  • Comercio bursátil automatizado: diseñado para optimizar las carteras de acciones, las plataformas de comercio de alta frecuencia basadas en IA realizan miles o incluso millones de operaciones al día sin intervención humana.

Según el gigante de la informática IBM, creador del primer PC (personal computer), en los próximos años los desarrollos tecnológicos sobre almacenamiento y potencia de procesamiento habilitarán algunos productos innovadores que conocemos y amamos hoy, como el motor de recomendación de Netflix o los coches de conducción autónoma.

El machine learning es un componente importante del creciente campo de la ciencia de datos. Mediante el uso de métodos estadísticos, los algoritmos se entrenan para hacer clasificaciones o predicciones, y descubrir información importante dentro de los proyectos de minería de datos. Esta información facilita posteriormente la toma de decisiones dentro de las aplicaciones y las empresas, lo que afecta idealmente a las métricas de crecimiento clave.

A medida que el big data continúa expandiéndose y creciendo, aumenta la necesidad de contratar a profesionales y científicos de datos, para que ayuden en la identificación de las preguntas de negocios más relevantes y los datos necesarios para responderlas. Una profesión, la de experto en datos masivos y en IA, que está entre las más demandadas y mejor valoradas por las organizaciones de todo el mundo.

Accede a la infografía sobre la historia del ‘machine learning’ o aprendizaje automático.

  • Inteligencia Artificial

Títulos que te pueden interesar

Noticias relacionadas

Funciones y formación necesaria para ser experto en Big Data

¿Estás interesado en aprender Big Data y no sabes por dónde empezar? En UNIR abordamos las funciones y formación para ser experto en Big Data.

Más rápido, más alto, más fuerte: cómo la tecnología ayuda a alcanzar la excelencia deportiva

El universo del deporte no es ajeno a la influencia cada vez mayor de la Inteligencia Artificial (IA) y de los datos masivos (big data). Se descubren así mejoras, automatismos y predicciones al servicio del rendimiento deportivo.

SGE 21: ¿Qué es y qué evalúa esta norma?

¿Sabes en qué consiste la norma europea SGE 21? En UNIR te contamos en qué consiste, qué se evalúa y los requisitos para obtener la certificación.

Docencia 100% online

Nuestra metodología te permite estudiar sin desplazarte mediante un modelo de aprendizaje personalizado

Clases en directo

Nuestros profesores imparten 4.000 horas de clases online a la semana. Puedes asistir en directo o verlas en otro momento

Mentor - UNIR

En UNIR nunca estarás solo. Un mentor realizará un seguimiento individualizado y te ayudará en todo lo que necesites

La fuerza que necesitas

Nuestra vida académica y social

Acompañamiento personalizado