El propósito de digitalizar un negocio, está directamente relacionado con la búsqueda constante de mejorar la competitividad empresarial. La idea subyacente de transformar una organización es tomar mejores decisiones analizando la mayor cantidad posible de información. En el mundo actual, esto solo es posible apoyándose en tecnología. Menos del 15% de las empresas ha logrado adquirir esta capacidad.
La lógica computacional
Como mencionaba recientemente, a mayor cantidad de información, mayor precisión en la determinación de una situación o condición. Este un concepto crítico, pues la lógica computacional funciona bajo un precepto muy simple: Si sucede una condición, entonces se ejecuta una acción, de lo contrario se ejecuta otra. La complejidad obviamente está en la condición. ¿Cómo puede inferir una máquina que una condición es cierta o falsa? En el pasado dependíamos de la interacción humana para hacer esa tarea. Ahora vemos como las máquinas empiezan a hacerlo solas. Es lo que llamamos inteligencia artificial.
Con suficiente información, una máquina es capaz de detectar ciertos patrones comunes y decidir con altísima precisión (y a gran velocidad) si la condición se cumple. Al proceso de entrenar una máquina para reconocer esos patrones comunes se le llama “aprendizaje de máquina”. El aprendizaje de máquina puede ser el invento mas importante en la historia del conocimiento de la humanidad desde la invención de la imprenta.
“Nunca habíamos sido tan parecidos a Dios”
Lo dijo Tom Friedman, 3 veces premio pulitzer, durante su conferencia en el evento World of Watson que se celebra en Las Vegas mientras escribo este artículo. Según Friedman, todo sucedió durante el año 2007, y pasó desapercibido por la crisis financiera del año 2008. Pero es un evento pivotal en la historia de la humanidad. A partir de ese momento la rata de conocimiento se aceleró a tal punto, que hoy tenemos la capacidad de solucionar prácticamente cualquier problema que tengamos al frente. Según Friedman, nunca habíamos sido tan parecidos a Dios.
No hay un solo personaje que pueda quedarse con los méritos de la invención del “aprendizaje de máquina”. Es en realidad una serie de eventos que se dieron casi al mismo tiempo y que permitieron la aceleración del conocimiento. En el año 2007 creamos la nube. Se popularizaron los smartphones. Encontramos como analizar grandes cantidades de información estructurada y no estructurada. Adoptamos las redes sociales. Desplegamos las redes de tercera generación (3G).
Todo esto concluyó en un evento muy simple. Watson, un supercomputador creado por IBM participó en Jeopardy! un popular concurso de la televisión norteamericana. Watson compitió en igualdad de condiciones contra los 2 mejores participantes en la historia de este concurso y les ganó.
¿Por qué es importante?
Todavía estamos tratando de aprender como se aprovecha la capacidad de aprendizaje de las máquinas. Watson, mas que un computador es hoy una plataforma de desarrollo. Las personas mas brillantes del planeta empiezan a modelar soluciones a problemas sobre Watson, que pronto, una vez la plataforma aprenda a reconocer los patrones comunes, podrán ser solucionados.
Imagine cuando sea posible detectar los factores que determinan la predisposición a una enfermedad como el cáncer. O cuando entendamos con mayor precisión las condiciones que han acelerado el cambio climático. O cuando podamos cambiar las condiciones de educación para que cada persona pueda explotar su potencial al máximo. Hay aplicaciones para casi cualquier problema. Yo salgo del evento, optimista de haber visto el potencial que ofrece la tecnología hacia futuro. ¡Recibí un estímulo importante sobre mi cerebro!