Las vemos a diario en Twitter, nuestro feed de noticias en Facebook, en foros de LinkedIn o en los principales medios de negocios, tecnología y tendencias que consumimos. Todas son tecnologías capaces de transformar los negocios, la manera en que tomamos decisiones y varias de las más importantes actividades de la vida misma.
La analítica, el machine learning, la inteligencia artificial y la ciencia cognitiva son ante todo tecnologías disruptivas. Así se denomina toda innovación que ayude a crear un nuevo mercado o transfome uno actual, desplazando los viejos modelos y generando unos nuevos hábitos de consumo.
Todas tienen en común utilizar el poder del conocimiento que dan los datos para generar aprendizajes y resolver situaciones que se puedan presentar en el futuro. Pero no hay que confundirse, no son lo mismo ni hacen lo mismo.
Analítica. La analítica es una ciencia que, si bien ha explotado en los últimos años por el crecimiento desmedido de los datos (Big Data), siendo utilizada por la totalidad de las principales compañías listadas en Fortune 500, su nacimiento se remonta a la década de los setenta. Fue creada por SAS, la compañía líder en este mercado en la actualidad y hoy es pilar fundamental de la transformación de sectores como el financiero, retail, telecomunicaciones, servicios y Gobierno, en el que ha ayudado a varios países en el planteamiento y desarrollo de políticas de alto impacto para los ciudadanos.
La clave es sencilla, hay que tener la capacidad de analizar toda la cantidad de datos en el menor tiempo posible. Así podemos saber dónde está geográficamente el posible comprador, qué necesidades tiene en ese momento, cuánta capacidad crediticia posee y, de esa manera, poder enviarle una promoción del 10 % de descuento si usa la tarjeta de crédito en un almacén por el que va caminando. Este método se llama analítica contextual, usamos la segmentación tradicional de información y le añadimos la segmentación de datos por contexto.
Machine Learning. El Machine Learning tampoco es nuevo. Su origen data de 1959 y es atribuido a Arthur Samuel, quien la definió como un campo de estudio que les da a los computadores la habilidad de aprender sin ser completamente programados. Hoy se define como el método de análisis de datos que sirve para automatizar la creación de modelos analíticos. Al usar algoritmos que aprenden automáticamente, Machine Learning permite a los computadores encontrar datos ocultos sin tener que programar dónde deben buscar.
Su importancia actual radica en que se ha constituido en una rama de la inteligencia artificial que automatiza la construcción de sistemas que aprenden iterativamente de los datos, identifican patrones y predicen resultados futuros con mínima intervención humana.
Gracias a los avances tecnológicos, la reducción de los costos de procesamiento y la disponibilidad de potentes algoritmos, este método resulta cada vez más accesible para las organizaciones.
Inteligencia artificial. En 1956, John McCarthy acuñó la expresión “inteligencia artificial”, y la definió como: “…la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes”.
Es quizá la que más familiar nos suena por las diversas películas que la han representado en forma de robots que puedan actuar como humanos gracias a esta ciencia.
La inteligencia artificial está de moda, porque ya hay un volumen de datos que permite sacarle provecho. Nuestros algoritmos buscan pensar como piensa el ser humano, aprender de los errores, tratar de simular el razonamiento del hombre.
Computación cognitiva. Oliver Schabenberger, Executive Vice President & CTO de SAS Institute define “La Computación Cognitiva como el sistema que se basa en sistemas de autoaprendizaje que utilizan distintas técnicas para realizar tareas humanas específicas, de una manera inteligente”. Es la posibilidad de que máquinas piensen y actúen casi igual a como lo hacen los humanos.
Para muchos es el punto culminante de todo este conjunto de tecnologías disruptivas y por eso se le da el nombre a toda esta nueva era de la historia tecnológica de la humanidad. Son tecnologías diferentes pero que buscan un objetivo en común: la inteligencia basada en los datos.