Las corporaciones han caído en una trampa de optimización. El 70% de los agentes autónomos en las empresas Fortune 500 operan hoy en un vacío de gobernanza absoluta. No se trata de un fallo en el modelo, ni de una alucinación del algoritmo. Es, en esencia, una abdicación deliberada de la responsabilidad humana.
He visto departamentos de finanzas en firmas de inversión entregar la llave de la aprobación de créditos a sistemas que nadie en el comité de riesgos termina de comprender. La eficiencia operativa ha subido, pero la claridad ha muerto. El resultado es una atrofia organizacional: el proceso funciona, pero el conocimiento del porqué se ha esfumado.
Estamos ante una forma inédita de suicidio corporativo.
Cuando la gerencia delega decisiones críticas a una IA, crea un agente huérfano. La IA no tiene activos que embargar, no tiene carrera profesional que arriesgar y, lo más importante, no siente el peso de la firma. Si el sistema falla, los ejecutivos se escudan en un registro de datos. Es una maniobra cínica para eludir la rendición de cuentas.
Esto no es nuevo, pero la escala actual lo hace peligroso. Hace dos años, los sistemas de CRM ya automatizaban la selección de clientes sin supervisión alguna. Los datos de Gartner son contundentes: las empresas que operan sin una figura de supervisor directo experimentan un aumento del 40% en la fricción interna cuando algo sale mal. ¿La causa? El dueño de la métrica y el responsable del proceso ya no son la misma persona. El mando se ha desconectado del tablero.
La erosión de la cultura organizacional
Una empresa es, en última instancia, un ecosistema de compromisos legales asumidos por personas. Cuando un ejecutivo sostiene que "la IA lo hace mejor", lo que realmente está diciendo es que ha dejado de entender cómo funciona su propio negocio. Es una renuncia al criterio profesional en favor de una métrica de velocidad.
Los CTOs están obsesionados con eliminar la latencia. Están desplegando agentes que negocian contratos, ajustan saldos y gestionan proveedores con una celeridad asfixiante. A mi juicio, este es un error táctico de primer orden: la fricción humana no es un defecto a eliminar, es el filtro de seguridad definitivo. Esa pausa donde un gerente cuestiona un resultado antes de validarlo es lo único que separa a una empresa de un colapso sistémico.
Lo que pocos están viendo es que la automatización sin fricción es, en realidad, una automatización sin control. En mercados como el de las fintech en Ciudad de México o São Paulo, donde la regulación exige una trazabilidad humana estricta, esta tendencia al "agente huérfano" no solo es un riesgo operativo, es una bomba de tiempo legal. La lección es clara: si el proceso es opaco para el humano, no es una ventaja competitiva, es un pasivo oculto que el mercado terminará cobrando con intereses.
La fascinación corporativa por la autonomía total en inteligencia artificial está ignorando una verdad fundamental de los mercados financieros: la responsabilidad no puede delegarse en un modelo de lenguaje. Nubank es el ejemplo perfecto de por qué la moderación vence a la ambición desmedida. Mientras el sector clama por automatización pura, el banco brasileño mantiene su éxito mediante esquemas human-in-the-loop, entendiendo que en el ecosistema regulado por la CVM, la autonomía descontrolada no es eficiencia, es un riesgo sistémico latente.
Estamos viendo una peligrosa tendencia a la externalización del juicio humano. Las empresas están reemplazando departamentos enteros de cumplimiento por flujos de trabajo algorítmicos bajo la premisa de reducir costos operativos. Esto no es optimización; es una forma sofisticada de deuda técnica y legal. Si un agente de IA en una fintech mexicana comete un error de sesgo en un score de crédito, la estructura corporativa actual no tiene un mecanismo de rendición de cuentas. ¿Quién firma la responsabilidad? Nadie. La impunidad operativa es el subproducto de una automatización sin supervisión.
La responsabilidad como activo financiero
A mi juicio, la narrativa de la autonomía desenfrenada es una trampa. Un agente de IA sin un supervisor humano no debería ser considerado un activo en el balance, sino un pasivo oculto esperando un evento de cola para estallar. El valor de una empresa reside en su capacidad de responder ante la crisis. Cuando una decisión carece de un dueño de carne y hueso, la cultura corporativa pierde su capacidad de defensa. Si la decisión es solo código, no hay valores que proteger.
Es ingenuo pensar que los reguladores se quedarán de brazos cruzados mientras los sistemas de toma de decisiones se vuelven opacos. La industria se encamina a una confrontación inevitable. Mi predicción es que para el cierre de 2026, veremos el primer desplome bursátil relevante motivado exclusivamente por una auditoría técnica fallida: una empresa será incapaz de explicar ante un regulador por qué sus agentes autónomos tomaron una serie de decisiones divergentes. Esto forzará una respuesta regulatoria contundente que exigirá la figura de un "responsable legal de IA" en cada organigrama corporativo.
La autonomía sin una firma humana detrás es, simplemente, negligencia disfrazada de vanguardia tecnológica. Las empresas que hoy eliminan la supervisión humana bajo el argumento de la eficiencia están hipotecando su viabilidad legal a largo plazo. En el futuro, el valor de una compañía no se medirá solo por la potencia de sus modelos, sino por la claridad de su cadena de mando humana. Si no hay un responsable claro en el commit de código, no hay empresa sostenible. No hay vuelta atrás: o le ponemos nombres humanos a los agentes hoy, o los jueces pondrán nombres en las actas de sanción mañana.