OpiniónAnalytics

Deep Learning, el siguiente paso en la inteligencia artificial

Por Ignacio López Monje, regional director Iberia en Arrow ECS.

Ignacio López Monje, regional director Iberia en Arrow ECS.
Ignacio López Monje, regional director Iberia en Arrow ECS.

Mucho se ha hablado, desde hace ya unos cuántos años, sobre todo lo que gira alrededor del ‘Big Data’. Poco a poco, este ruido generado por el sector tecnológico se ha ido trasladando al entorno empresarial en forma de diversas y grandes expectativas respecto al crecimiento exponencial del volumen de datos, a lo que se ha sumado la preocupación por cuáles podrían ser las tecnologías que tendrían la capacidad de hacerse cargo y gestionar esa cantidad ingente de información.

A pesar de la “locura del Big Data”, la expansión no fue tanta debido a que la necesidad de infraestructuras adaptadas a este nuevo escenario, así como de personal, actuaron como un freno en su desarrollo. Sin embargo, hubo players en el mercado con la vista puesta en el futuro que supieron aprovechar la era del cambio y fueron capaces de anticipar que la recopilación de datos se convertiría en un “recurso de valor añadido”.

La llegada de la Inteligencia Artificial (IA) aumentó aún más el entusiasmo respecto al potencial que esta tecnología podía traer consigo, como, por ejemplo, la posibilidad de que las máquinas pudieran imitar e incluso automatizar funciones cognitivas como hace el cerebro humano. De hecho, las técnicas de IA existen desde hace muchos años, pero hasta ahora no se habían logrado normalizar y acercar a la vida cotidiana hasta que la tecnología no ha progresado y avanzado lo suficiente como para hacerlas evolucionar.

A pesar de que estas tecnologías no son algo nuevo, la revolución de los datos que se preveía en el pasado se ha convertido en una realidad. Las empresas actuales tienen, por lo general, más datos que nunca, y eso contando sólo con los datos estructurados ya conocidos que ahora se tratan de forma digital, a los que hay que sumar todos los datos que genera las nuevas fuentes como las redes sociales, o el IoT.

Gartner cifró en 2018 por un valor aproximado de 1,2 billones de dólares

Por lo que al entusiasmo que genera la inteligencia artificial se le une el negocio que es capaz de mover. Un importante negocio que, por ejemplo, la consultora tecnológica Gartner cifró en 2018 por un valor aproximado de 1,2 billones de dólares1.

Frente a esta locura por los datos, el machine learning se erige como tecnología clave al permitir a las empresas llegar hasta las tripas mismas de sus propios datos, impulsando su Data Intelligence y haciéndolo evolucionar y desarrollarse para obtener resultados más predictivos e instructivos, es decir, a sacar un mayor rendimiento de los datos.

Esto supone un cambio de paradigma en el procesado de los datos para las empresas, puesto que ya no se trata de echar la vista atrás para analizar una situación y tomar decisiones basadas en el análisis posterior, sino que gracias al Machine Learning, es posible que las empresas miren hacia el futuro y centren sus esfuerzos e inversiones en cuáles deben ser sus siguientes pasos.

Los algoritmos de aprendizaje, en los que se basa el Machine Learning, suponen un gran avance respecto a los procesos, las estrategias de futuro y las determinaciones que puede tomar una empresa, y todo ello basado en metodologías ‘inteligentes’. Siendo uno de sus valores fundamentales la ayuda que supone para las empresas la mejora de su rendimiento y la posibilidad de llevar a cabo un mapeo más preciso respecto de las ofertas que podrían establecerse, al mismo tiempo que es posible la automatización de todo tipo de tareas.

Sin embargo, no hay que olvidar que las técnicas del Machine Learning no dejan de ser creadas por humanos, que dotan de inteligencia a la tecnología a través de algoritmos predeterminados. De hecho, uno de los grandes mitos de la Inteligencia Artificial según Gartner2, es creer que estas tecnologías dotan de inteligencia real a las máquinas, olvidando que hemos de prestar especial atención a los datos con los que alimentamos a los algoritmos, ya que, de estar viciados, el resultado también lo terminará estando.  

¿Qué hace posible, entonces, que estos algoritmos no se estanquen? Pues es aquí donde entra en juego el Deep Learning, ya que éste hace que los algoritmos mejoren conforme se acumulan más datos óptimos y tiempos de uso. Cuantos más datos se generan, supervisan e identifican, mayor es el rendimiento del algoritmo que se convierte en una especie de “superalgoritmo” capaz de generar avances revolucionarios en el rendimiento. De hecho, estos “superalgoritmos” están inspirados en la estructura y las funciones cerebrales llamadas Redes Neuronales Artificiales (ANN) lo que les permite aprender tareas por su cuenta mediante el análisis de grandes cantidades de datos.

Los algoritmos del Deep Learning aprenden de la experiencia y tras recoger varios inputs de los datos son capaces de realizar una respuesta automática, convirtiendo lo impensable en algo posible.

Ya sea algo tan sencillo como la capacidad predictiva que posee Alexa que hace posible que se añada un producto a tu pedido mensual de Amazon, o como la capacidad fascinante de detectar mucho más rápido posibles tumores en un escáner de resonancia magnética y con mayor precisión que un humano; no se puede negar que éste es un momento clave para que las empresas se planteen cambiar su perspectiva respecto a esta nueva realidad.

Sabemos que las empresas tienen problemas que resolver, algunos son grandes desafíos que provocan cambios básicos en sus actividades, y otras tienen complejidades que causan la desfragmentación de las actividades diarias de una empresa. No importa el tamaño de la empresa, grande o pequeña, las evidencias muestran que todas las organizaciones necesitan ayuda para sacar partido a las múltiples opciones que tienen disponibles en el campo del Deep Learning y por ende a la Inteligencia Artificial. Ya no sólo para resolver sus problemas actuales, sino para poder seguir afrontando y resolviendo los problemas que aparezcan en el futuro.

Computing 782