
El próximo 18 de junio, Madrid acogerá una nueva edición del NPLs & Real Estate Summit, uno de los encuentros clave del sector. En la antesala del evento, hablamos con Javier Ventas, Director de Urban Data Analytics by Accumin, para conocer cómo la aplicación de tecnologías basadas en Big Data e Inteligencia Artificial está redefiniendo la forma en que se analizan, valoran y gestionan las carteras de activos NPL y REO.
En esta entrevista, Ventas analiza el papel del dato como motor de transformación del mercado inmobiliario, detallando cómo el uso de modelos predictivos, segmentaciones hiperlocales y automatización de procesos permite a servicers e inversores anticipar tendencias, optimizar decisiones y ganar eficiencia operativa. Una conversación imprescindible para comprender los retos y oportunidades que plantea la digitalización en un entorno cada vez más competitivo.
¿Cómo puede el análisis de datos contribuir a una mejor valoración y gestión de carteras NPL y REO?
El mercado inmobiliario atraviesa una etapa de profunda transformación, en la que la adopción de herramientas basadas en Big Data y algoritmos de Machine Learning ya no es simplemente una vía para ser más eficiente: se ha convertido en un pilar fundamental para la reconfiguración de toda la industria de gestión de carteras. Estas tecnologías nos permiten realizar una segmentación granular de las carteras, tanto desde un enfoque geográfico, considerando variables como la ubicación, la liquidez del mercado o la evolución de precios en tiempo real, como a nivel individual, incorporando características intrínsecas de cada activo. Esto nos permite realizar una comparación dinámica con una base masiva de comparables, algo que sería imposible con los métodos tradicionales. Como resultado, podemos diferenciar y valorar cada activo de forma precisa, ajustándonos a las condiciones actuales del mercado. La automatización es otro eje clave de esta transformación. Desde el desarrollo de herramientas que eliminan tareas manuales repetitivas, como la carga y depuración de datos, hasta la implementación de soluciones para la gestión más eficiente del contacto, seguimiento y recobro de deudores, la digitalización permite escalar operaciones manteniendo el control y la trazabilidad, al tiempo que se reducen costes operativos.
“Integrar datos de rentabilidad y tensión en el mercado del alquiler, especialmente en grandes ciudades y zonas tensionadas, nos ayuda a completar la foto del comportamiento inversor y residencial”
¿Qué tipo de datos considera críticos hoy en día para anticipar tendencias en el mercado inmobiliario español?
Ya no es suficiente analizar los indicadores tradicionales como el precio por metro cuadrado o el volumen de transacciones. Hoy en día, es fundamental integrar capas de información más dinámicas, granulares y complementarias. Entre los datos críticos que nosotros trabajamos, destacan los indicadores de liquidez del mercado, así como la capacidad de absorción de los activos según sus características. Otros datos que observamos detenidamente son el tiempo medio de publicación y la diferencia entre precios de publicación y de cierre. Estos datos nos permiten identificar en qué fase del ciclo económico inmobiliario se ubican ciertas zonas o ubicar donde existe alta presión compradora antes de que se refleje en los precios. En segundo lugar, el análisis de demanda digital ha ido ganando importancia: los patrones de búsqueda, contactos en portales y cambios en la preferencia y comportamiento según la tipología. Esta información nos da información de movimientos en el mercado antes de que se concreten en transacciones reales. También es clave el cruce con datos macroeconómicos (tipos de interés, tasas de esfuerzo) y demográficos (movilidad, pirámide poblacional, evolución del hogar), así como la definición de perímetros geoespaciales que nos permita definir los perímetros donde identificamos cambios. Finalmente, integrar datos de rentabilidad y tensión en el mercado del alquiler, especialmente en grandes ciudades y zonas tensionadas, nos ayuda a completar la foto del comportamiento inversor y residencial.
¿Qué papel juega la inteligencia artificial en las soluciones que ofrecéis para el análisis de activos y riesgos inmobiliarios?
La inteligencia artificial juega un papel central en las soluciones que ofrecemos. No se trata solo de automatizar procesos existentes, sino de ofrecer una nueva forma de entender y gestionar la información en un entorno cada vez más competitivo. Aplicamos modelos de machine learning entrenados con grandes volúmenes de datos históricos y actuales para estimar el valor de los activos (AVMs), evaluar su volatilidad, predecir su liquidez y calcular indicadores de mercado. Estos modelos son capaces de identificar patrones y relaciones que no serían posibles a través del análisis tradicional. En contextos de alta incertidumbre o escasez de comparables directos, la capacidad predictiva de estos modelos se vuelve sumamente valiosa, ya que permiten generar estimaciones incluso en mercados con baja transparencia o liquidez limitada. Además, usamos IA para la detección de inconsistencias en los datos y estamos desarrollando un algoritmo de procesamiento de imágenes de activos, aplicando visión artificial para reconocer el estado de conservación o presencia de elementos relevantes en las imágenes de los activos. Otro avance clave es la generación automática de informes y dashboards ejecutivos, personalizados por cliente o tipo de cartera, que permiten traducir el análisis técnico en insights accionables para decisiones estratégicas.
¿Desde vuestra experiencia, ¿cómo están cambiando las estrategias de inversión en Real Estate gracias al uso del Big Data?
El uso del Big Data está transformando de manera profunda las estrategias de inversión en el sector inmobiliario. Ya no se trata únicamente de analizar el comportamiento pasado del mercado, sino de obtener más claridad de su comportamiento futuro con mayor precisión y a un nivel de granularidad que antes no era posible. Una de las principales disrupciones ha sido el paso de un enfoque macro y general a uno hiperlocal y dinámico. Hoy somos capaces de analizar el número de transacciones y sus precios desde la propia parcela catastral. Todo esto nos permite detectar cambios en la demanda, señales de sobrevaloración o zonas con alto potencial de revalorización, incluso antes de que se reflejen en el mercado. Esta capacidad de observación granular es muy importante para lograr identificar oportunidades y anticiparse a los movimientos del mercado. Combinando datos históricos con modelos predictivos, podemos proyectar con mayor confianza la evolución de precios, alquileres, liquidez y riesgo. Esto se traduce en estrategias de inversión más sofisticadas, optimizando entry points, hold periods y momentos óptimos para realizar una desinversión. Además, el uso intensivo de datos nos ha permitido desarrollar modelos de scoring avanzados para activos y carteras. Estos modelos no solo segmentan el riesgo y priorizan oportunidades, sino que también permiten automatizar parte del proceso de originación.
“La calidad del dato es la base que permite construir una cadena de valor”
¿Cuáles son los principales retos que detectáis en la digitalización del análisis de activos en dificultad (o distressed) y qué recomendaciones darías a servicers o inversores que quieran aprovechar el potencial del dato?
Uno de los principales retos en la digitalización del análisis de activos distressed es la fragmentación y heterogeneidad de los datos. La información suele provenir de múltiples fuentes no estructuradas, como bases catastrales, registros públicos, portales inmobiliarios o documentación legal, lo que dificulta tener una visión única y precisa del activo. Otro desafío crítico es la calidad y trazabilidad del dato. Muchos activos distressed presentan inconsistencias documentales, información desactualizada o características (valor, estado de conservación, situación jurídica) que difieren de los activos en mercado. Esto no solo complica su valoración, sino que afecta directamente el proceso de due diligence, la evaluación del riesgo y la definición de una estrategia de resolución eficaz. Nuestras recomendaciones para servicers e inversores son claras. La calidad del dato es la base que permite construir una cadena de valor. Es fundamental invertir en una base sólida de gobernanza y estandarización de datos, incluso antes de comenzar con el desarrollo de modelos analíticos avanzados. Es clave priorizar plataformas tecnológicas integrables, que permitan conectar fuentes de información heterogéneas y que les permita escalar. Estas soluciones deben complementarse con dashboards y métricas orientadas a la toma de decisiones estratégicas, no solo al reporting operativo. Y, sobre todo, recomendamos establecer alianzas estratégicas con partners que combinen un profundo conocimiento del sector con capacidades tecnológicas reales, ya que el reto no es sólo técnico, sino también metodológico y de enfoque. En un entorno cada vez más competitivo, quienes consigan estructurar, analizar y explotar los datos con agilidad tendrán una ventaja diferencial clara en la gestión de carteras distressed.
Sigue toda la información de Open Hub News en X y Linkedin , o en nuestra newsletter.