El invierno ya está aquí… ¡o no!

Aunque el invierno meteorológico ya empezó a principios de diciembre, dentro de pocos días entraremos en el invierno astronómico, esa época en la que, por la inclinación de nuestro eje de rotación, la distancia del hemisferio norte de la tierra al sol es un poco mayor que en verano.

De igual manera, algunos gurús ya están vaticinando la llegada del invierno de la Inteligencia Artificial. No es una cosa nueva, de hecho, ya ha pasado al menos un par de veces en la historia: el primero entre 1974-1980 y el segundo entre 1987-1993. Se trata de periodos donde la inversión decae bruscamente porque las elevadas expectativas (sobre todo financieras) creadas en el periodo previo no se ven cumplidas y esto provoca una reacción de bola de nieve que se transmite a todos los stakeholders: la prensa, la sociedad, y llega hasta la investigación.

No soy un gurú, ni mucho menos, pero llevo aplicando modelos de Machine Learning (un tipo de IA) más de veinte años en empresas de diferentes sectores y para diferentes fines. Ahora bien, en estos últimos años, desde la irrupción meteórica de los modelos LLM (del inglés Large Lenguage Models) como Chat GPT, he observado una exagerada reacción de muchas empresas y muchos de sus directivos que se han lanzado a abrazar las presuntas capacidades milagrosas de la IA generativa.

No voy a ser yo el que reniegue de las bondades evidentes de las nuevas aplicaciones aparecidas en los últimos dos años, pero sí creo necesario compartir mi visión de las malas prácticas en la adopción de la IA que observo en mi día a día como consultor y profesor de IA (otro día hablaremos de las buenas).

Desde pymes hasta multinacionales, me he encontrado, por ejemplo, a empresas cuyo objetivo único es lanzar una POC (prueba de concepto en inglés) para ver si funciona la IA y, no menos importante, poder comunicar al mercado que ellos ya la han incorporado. Sin estrategia, sin un plan de despliegue o sin haber previsto cómo rentabilizar la puesta en producción de aquello que han probado en fase test y de manera aislada del resto de sistemas y procesos de la organización.

Pero el error más habitual que me encuentro en esta fase inicial de incorporación de las nuevas capacidades que nos brinda la Inteligencia Artificial, es que la mayoría de actores no tienen en cuenta que los factores más limitantes no se encuentran ni en la tecnología ni en la financiación, sino en el cambio cultural necesario para vencer las resistencias (lógicas y humanas) de las personas que tienen inevitablemente que modificar su modus operandi y los procesos, físicos y lógicos, que lo sustentan.

Otro rubro que cabe mencionar y que, a la postre, se está convirtiendo en uno de los escollos principales es el de los datos. Merece la pena recordar que todas las tipologías de Inteligencia Artificial son, al fin y al cabo, algoritmos de aprendizaje automático que, a partir de unos datos de partida, son capaces de describir o predecir qué es lo que pasará con datos o escenarios futuros (este el caso del Machine Learning). O son capaces de generar nuevos datos sintéticos en forma de texto, audio o vídeo (este el caso de la IA generativa, como su nombre indica).

Al igual que en la cocina (tanto la alta como la baja) la calidad de los ingredientes determina en un alto grado el éxito del plato cocinado, es fácil entender que la calidad de los datos es crucial para determinar la calidad de los resultados al aplicar tecnología artificial. Desgraciadamente, no todas las empresas son conscientes de este hecho y no son conscientes de que el primer paso a la hora de implantar cualquier aplicación LLM o lanzar una iniciativa de ML, es arreglar su arquitectura y modelo de datos.

No sabemos si finalmente llegará (ni cuándo) el siguiente invierno de la IA. De todas formas, es mejor que nos coja preparados. Igual que hace la hormiga de la fábula de Esopo, las empresas que aún no lo hayan hecho por desconocimiento, por falta de capacidad o de recursos, pueden hacer los deberes para abordar con garantías el cambio disruptivo que la IA está generando en todo el mercado.

El marco de actuación que yo utilizo y recomiendo para incorporar la Inteligencia Artificial, sea cual sea su tipología, y en cualquier área funcional es sencillo, basta seguirlo paso a paso. I) Elegir bien el caso de uso dónde la IA ayude realmente a crear valor: más ingresos, menos costes, más conocimiento, más satisfacción… lo que más urja e importe; II) Preparar los datos; III) Definir los objetivos a conseguir, sus KPIs y cómo vamos a medir los resultados; IV) Preparar a las personas para el piloto y sobre todo en cómo les va a afectar en su entorno de trabajo; V) Seleccionar la tecnología adecuada para el caso de uso; y VI) Comunicar a toda la organización el éxito (o fracaso) del piloto.

Como se habrá podido observar, la tecnología es prácticamente la última etapa del proyecto de implantación y no la primera. ¡En estos casos el orden de los factores sí altera el producto! Otro de los errores cometidos, por cierto con demasiada frecuencia, es justamente focalizar el liderazgo de este cambio de paradigma solo al área de tecnología, que se suele encontrar demasiado cerca de los proveedores tecnológicos y demasiado lejos del negocio y de sus necesidades.

Para que este proceso de aprendizaje se implante con éxito es necesario pensar en grande, pero empezar despacio y sobre todo ser diligente en su ejecución, flexible en la asunción de errores y perseverante en la escalabilidad de los resultados. Y, huelga decir, ¡elegir bien con quién hacerlo!

Sigue toda la información de Open Hub News en X y Linkedin , o en nuestra newsletter.
  

Autor