En la era de la inteligencia artificial (IA), una verdad incómoda se impone: los datos son poder. Pero no cualquier dato, sino aquellos que pueden ser procesados, comprendidos y accionados a tiempo real.

En un contexto donde la digitalización avanza más rápido que la regulación y la educación financiera, el riesgo no solo es tecnológico, sino profundamente social. La frase “quien tenga más datos gana”, cobra especial sentido cuando entendemos que, hoy, la IA predice fraudes, y que los puede prevenir antes de que los humanos siquiera los vean.
Empresas tecnológicas globales ya lo están diciendo sin rodeos: sus sistemas de IA pueden detectar amenazas de ciberseguridad invisibles para los ojos humanos. Y esto no es ciencia ficción. Se trata de modelos entrenados con billones de puntos de datos, capaces de identificar patrones anómalos, conexiones sospechosas o transacciones irregulares en milisegundos. Es el equivalente moderno de tener una fuerza policial anticipatoria custodiando nuestra vida financiera.
Los buenos tienen más datos. ¿Pero los buenos para quién?
Si bien es tranquilizador pensar que los buenos —bancos, fintechs, plataformas digitales— tienen más datos que los cibercriminales, no podemos olvidar que muchos de esos datos provienen de nosotros. De nuestras búsquedas, transferencias, clics y hasta errores. Lo que está en juego no es la seguridad, la confianza y la equidad.
Aquí entra en juego un concepto crítico: la inclusión financiera. Porque si la IA solo protege a quienes ya están dentro del sistema formal, deja afuera —una vez más— a los más vulnerables. Pensemos en quienes aún no tienen acceso a servicios financieros digitales, o lo hacen desde redes inestables, dispositivos compartidos o sin saber cómo protegerse. Para ellos, el riesgo no es solo ser víctimas de fraude, sino de exclusión de la prevención.
Del escudo digital al puente de acceso
La gran oportunidad que tenemos hoy es utilizar esos datos buenos, no solo para blindar el sistema, sino para abrirlo. La IA puede ser también un puente hacia la inclusión si se la entrena para identificar patrones de comportamiento financiero alternativo: ahorro informal, consumo en ferias, pagos entre pares. Estos rastros digitales, correctamente interpretados, pueden habilitar nuevos perfiles de riesgo, productos microfinancieros y formas de veracidad financiera que no dependan solo del historial bancario tradicional.
La ética del “más datos”
Por último, no podemos esquivar el debate ético: ¿quién define quiénes son los buenos? ¿Qué pasa cuando el mismo sistema que previene fraudes también decide a quién se le otorga un crédito, o a quién se vigila más de cerca? La frontera entre seguridad e invasión, entre eficiencia e inequidad, es delgada. Y en sociedades desiguales como la nuestra, esa línea puede marcar la diferencia entre avanzar hacia un sistema financiero más justo o profundizar las brechas existentes.
La inteligencia artificial ya es un actor clave en el mapa financiero global. Pero su poder dependerá de cómo se utilice: si solo como escudo para proteger a los que ya están adentro, o también como llave para incluir a los que aún están afuera. La inclusión financiera del futuro no se juega solo en cajeros, billeteras virtuales o apps; se juega en los algoritmos que deciden a quién ver, a quién ayudar y a quién ignorar. Y esa, más que una cuestión tecnológica, es una decisión profundamente humana.
Sigue toda la información de Open Hub News en X y Linkedin , o en nuestra newsletter.