La industria tecnológica está inmersa en una carrera armamentista de capital. Mientras el gasto global en infraestructura de centros de datos se dispara hacia los 250.000 millones de dólares anuales, las salas de juntas de América Latina celebran una transformación digital que, en la práctica, no existe. Estamos viendo una desconexión peligrosa: departamentos de IT que contratan tokens de modelos avanzados mientras sus sistemas de gestión de bases de datos languidecen en arquitecturas monolíticas de hace una década.
Esto no es modernización; es cinismo técnico. La obsesión por integrar APIs de inteligencia artificial ha creado un espejismo de eficiencia. Los ejecutivos, seducidos por la fluidez de un chatbot, asumen que la IA es un componente "plug-and-play". La realidad es bastante más sucia. Un LLM es apenas un motor; necesita combustible de alta calidad y una infraestructura capaz de procesarlo sin fatiga. Hoy, la mayoría de las empresas intentan sostener rascacielos digitales sobre cimientos de papel. Sus ERPs on-premise colapsan ante consultas simples y sus activos críticos permanecen secuestrados en silos de datos desestructurados.
Lo que pocos están viendo es que hemos priorizado el time-to-market sobre la arquitectura durante demasiado tiempo. Gartner señala que el 85% de los proyectos de IA no superan la fase de prueba de concepto. No es un fallo de los modelos, es un fallo de la plomería. Cuando intentas aplicar una capa de inteligencia generativa sobre un ecosistema de datos que es una cloaca informativa, el resultado es predecible: ruido técnico procesado a una velocidad astronómica.
La ilusión de la capacidad de cómputo infinita
Existe la creencia popular de que la nube es una varita mágica capaz de diluir la ineficiencia. Es un error de cálculo costoso. Escalar sobre arquitecturas diseñadas para procesar lotes nocturnos —en lugar de inferencias en tiempo real— no es una estrategia, es un suicidio financiero. Comparamos los recursos que consume una aplicación web tradicional con la voracidad de un modelo generativo y los resultados no mienten: la IA exige una infraestructura de flujo continuo. Si tu sistema de base de datos no puede manejar el volumen, añadir más GPUs no es más que quemar dinero en la nube.
El detalle que importa es la latencia de las APIs internas. Si una empresa no puede garantizar la velocidad de sus procesos de negocio actuales, ¿por qué cree que puede soportar una capa de inteligencia encima? Mercado Libre, que gestiona transacciones con una precisión quirúrgica, entiende que la infraestructura es el límite de la escala. El resto del sector parece haber olvidado esta lección fundamental. Estamos automatizando procesos ineficientes en lugar de eliminarlos. Es, en esencia, intentar instalar un motor Ferrari en un chasis de bicicleta.
Honestamente, el problema es de estructura, no de presupuesto. Comprar más potencia no arreglará una base de datos mal normalizada ni un modelo de datos incoherente que fragmenta la información entre departamentos. El marco es demasiado rígido, demasiado lento y peligrosamente frágil para las cargas de trabajo que la IA exige hoy. El CTO que prioriza la interfaz del chatbot sobre los pipelines de ingestión de datos está construyendo un agujero negro operativo.
Mi lectura es distinta a la del mercado: estamos entrando en una fase de "invierno técnico" corporativo. Muchas empresas que hoy presumen de sus despliegues de IA descubrirán, tras una auditoría de costos de nube y una degradación crítica del rendimiento, que su complejidad operativa ha alcanzado niveles insostenibles. No se trata de qué tan inteligente es tu modelo, sino de cuánto tiempo puede tu infraestructura sostener el peso de tu propia ambición.
La tesis es clara: para finales de 2026, veremos una oleada de desinversión. El 40% de las empresas que hoy han integrado IA a gran escala comenzará a desmantelar funciones complejas para recuperar la estabilidad básica de sus operaciones. Cuando el costo de mantenimiento de una arquitectura obsoleta disfrazada de innovación se vuelva indefendible ante los accionistas, la "IA primero" pasará a un segundo plano. La pregunta no es qué modelo vas a implementar mañana, sino cuánto tiempo puedes aguantar el costo de ocultar tu deuda técnica bajo una máscara de silicio.