Tinta Tech

El fin de la eficiencia: cómo el costo marginal cero de la IA destruye márgenes

Emilio Pfeffer·
El fin de la eficiencia: cómo el costo marginal cero de la IA destruye márgenes

La caída del 90% en el costo de inferencia de modelos como GPT-4o en el último año y medio no es una noticia económica aislada; es un espejismo financiero que está nublando el juicio de la alta dirección. El CFO promedio celebra este desplome como un triunfo de la eficiencia operativa. No se dan cuenta de que están abaratando el insumo más peligroso de su estructura: la información. Estamos asistiendo al inicio de una hiperinflación de datos sintéticos que terminará por bloquear la capacidad de ejecución de cualquier empresa mediana antes de que finalice 2025.

Cuando el costo de generar texto, código o análisis tiende a cero, el incentivo racional para la calidad desaparece. El resultado es una inundación de basura digital que está saturando nuestros sistemas internos. Un estudio de la Universidad de Oxford ha sido claro: los modelos entrenados mayoritariamente con datos sintéticos colapsan en menos de cinco iteraciones. Es una ley física aplicada a la información. Si los agentes de IA comienzan a alimentarse de resúmenes de resúmenes generados por otros agentes, la entropía informativa no es un riesgo, es una garantía. El sistema termina por devorarse a sí mismo.

La trampa de la eficiencia masiva

Lo que pocos están viendo es que el entusiasmo por la automatización total es, en realidad, un ejercicio de autosabotaje. Empresas con un alto volumen de transacciones, como Mercado Libre o Nubank, dependen de la precisión absoluta de su infraestructura de datos. Si el 80% de la comunicación o el procesamiento de datos interno se genera de forma automática, sin fricción ni costo, estamos eliminando el único filtro que realmente importa: la inteligencia humana. Aquí discrepo con los optimistas del sector: la eficiencia, cuando se convierte en un commodity masivo, muta rápidamente en ruido.

La arquitectura corporativa actual no fue diseñada para este volumen de basura digital. Los almacenes de datos y los costos de computación en la nube, aunque más accesibles que hace una década, tienen límites físicos y económicos. Al inundar los repositorios con datos sintéticos, el costo real simplemente se traslada: dejamos de pagar por la generación para empezar a pagar por el almacenamiento y el procesamiento de datos que, en esencia, no dicen nada. Es una deuda técnica que no se puede auditar.

El detalle que importa es que la escasez es, en realidad, una ventaja competitiva. Mientras el mercado se apresura a generar contenido a granel, las organizaciones que impongan un costo artificial —exigiendo validación humana, curaduría de expertos y procesos de verificación estrictos— serán las que realmente mantendrán su relevancia. El despliegue masivo y descontrolado hoy no es escalabilidad; es destrucción de valor.

Miremos el caso del desarrollo de software. Herramientas como GitHub Copilot han disparado la producción de líneas de código, pero el tiempo medio de resolución de errores (MTTR) en equipos de ingeniería no ha mejorado. Al contrario, estamos dedicando más horas hombre a depurar código sugerido que a escribirlo nosotros mismos. El costo marginal de escribir es nulo, pero el costo marginal de leer, entender y corregir lo producido por la IA se ha disparado. Es el cuello de botella que nadie en los comités de dirección quiere admitir.

Si una firma financiera decide reemplazar su soporte técnico con agentes autónomos que generan mil respuestas por segundo, los costos de nómina caerán instantáneamente. Pero, ¿qué ocurre con la lealtad del cliente cuando el sistema entra en un bucle de respuestas vacías? Esa degradación de la experiencia es un costo oculto que no aparece en el Excel trimestral, pero que erosiona la marca a largo plazo. No estamos automatizando el servicio; estamos fabricando spam.

Mi lectura es que la curaduría manual —ese proceso lento y deliberadamente costoso— es la única barrera real contra la obsolescencia organizacional. La IA debería servir para filtrar, no para diluir. Las empresas que sobrevivan a esta década no serán las que acumulen más datos, sino las que mantengan los datos más limpios. La corrección del mercado vendrá por fuerza mayor: antes de terminar 2026, veremos una parálisis en la toma de decisiones corporativas causada por la alucinación sistémica. En ese punto, la capacidad de curar y verificar información será, finalmente, la habilidad más valorada —y la más escasa— en toda la industria.

Cotizaciones mencionadas

TickerPrecioDía
MELIUS$ 1.557,30-4.61%
NUUS$ 13,50-2.17%

Relacionados

Newsletter

Las noticias que importan, en tu correo.