El gran fracaso de la IA empresarial no es la tecnología: es la conducta humana y la contabilidad que no sabe cobrarla
Durante el último año, la conversación pública sobre inteligencia artificial se llenó de demostraciones, promesas y compras corporativas. Se invirtió a escala industrial en modelos, licencias, infraestructura y pilotos. Sin embargo, el síntoma que importa en una sala de directorio no es cuántas pruebas se ejecutaron, sino cuántos puntos de margen aparecieron al cierre del trimestre.
Un estudio citado por MIT, según recoge TheStreet, documenta una cifra que no encaja con el relato de euforia: 95% de las organizaciones no vio retorno medible de sus inversiones en IA, a pesar de que el gasto agregado se ubicó entre 30.000 y 40.000 millones de dólares en iniciativas empresariales de IA. No es un problema de potencia de cómputo ni de “madurez del modelo”. Es, en gran medida, un problema de adopción humana y de sistemas internos que no están diseñados para la economía real del consumo de IA.
Desde mi trabajo analizando comportamiento del consumidor y fricciones de adopción, leo esta historia como una autopsia de dos fallas clásicas: la primera ocurre en el escritorio del empleado, donde la IA termina degradada a “buscador mejorado”; la segunda ocurre en el back office, donde incluso cuando el uso existe, la empresa no sabe medirlo ni cobrarlo con precisión. En ambos casos el error es el mismo: diseñar para un humano y una contabilidad que no existen.
Cuando la IA llega al trabajo real, choca con incentivos, hábito y miedo al error
Oseas Ramirez, CEO de Axialent, lo expresó con una frase que debería estar impresa en cada plan de transformación: “La IA la adoptan las personas, no los servidores. Si la gente no cambia cómo trabaja, la tecnología simplemente se queda ahí.” Esa afirmación no es filosofía; es economía aplicada. Si el comportamiento no cambia, el activo tecnológico se convierte en costo hundido.
El patrón que describe la investigación citada por TheStreet es consistente con lo que observo en adopción: la mayoría de los empleados usa la IA como un motor de búsqueda ligeramente más inteligente, no como un rediseño del flujo de trabajo. Ese matiz destruye el retorno. Un “buscador mejorado” ahorra minutos; un flujo rediseñado cambia tiempos de ciclo, reduce retrabajo, estandariza decisiones y vuelve escalables actividades que antes dependían de héroes internos.
El choque ocurre porque las organizaciones intentan desplegar IA con el guion de siempre: comprar herramienta, instalar, entrenar, declarar victoria. Pero la adopción no falla por falta de capacitación; falla por fricción cognitiva y por riesgos percibidos. El empleado no “rechaza la IA” por ideología: la evita cuando el costo mental de usarla supera el beneficio inmediato o cuando el sistema de incentivos penaliza el experimento.
En términos conductuales, el empuje existe —la frustración con tareas repetitivas y presión por productividad—, y el magnetismo también —la promesa de velocidad y mejores respuestas—. El problema es que la ansiedad y el hábito suelen ganar. Ansiedad, porque delegar criterio a un sistema probabilístico expone al usuario al error visible. Hábito, porque el status quo ya tiene rutas conocidas para sobrevivir en la política interna: “hacerlo como siempre” rara vez cuesta la carrera; probar algo nuevo y fallar sí puede costarla.
La pieza crítica aquí es que muchas jerarquías e incentivos se diseñaron antes de que existiera la IA. Si un equipo comercial recibe pronósticos generados por IA que chocan con cuotas o con narrativas internas, el dato no se “discute”; se ignora. No por maldad, sino por preservación: el humano optimiza su seguridad dentro del sistema. Si el modelo amenaza el acuerdo tácito de cómo se asigna mérito y culpa, el modelo pierde.
Por eso, las empresas que logran resultados no suelen ser las que tienen el modelo más sofisticado, sino las que re-estructuran el trabajo alrededor del modelo. La IA no es un “add-on”; es un rediseño del contrato psicológico del trabajo: quién decide, quién valida, quién firma, quién asume el riesgo. Sin ese rediseño, la herramienta se usa para tareas pequeñas, el ROI se evapora y la organización aprende la lección equivocada: que la IA “no sirve”, cuando en realidad lo que no sirve es el sistema de adopción.
El ROI se rompe por una razón banal: se compra brillo, se subestima la fricción
Las cifras del estudio citado son un golpe a la narrativa triunfalista: 95% sin retorno medible tras 30.000–40.000 millones de dólares invertidos. Cuando aparece una brecha así, la explicación suele ser menos glamorosa que la tecnología. La respuesta está en cómo las empresas asignan presupuesto y atención.
En la práctica, muchas organizaciones financian con entusiasmo lo visible: licencias, infraestructura, pilotos con demos espectaculares. Eso “brilla” en una presentación. Lo que no recibe el mismo amor presupuestario es lo que realmente mueve el comportamiento: rediseño de procesos, cambios de incentivos, gobernanza de uso, protección frente al error razonable, y tiempo real para iterar.
Aquí se ve un sesgo corporativo frecuente: se trata la transformación como un proyecto de TI, no como una reescritura operativa. La consecuencia es predecible: el uso se queda en la superficie. El empleado abre la herramienta para redactar un correo, resumir un documento o buscar información. Son acciones que no ponen en riesgo la identidad profesional ni desafían jerarquías. La IA se convierte en cosmética de productividad.
Hay otro detalle que agrava el problema: la resiliencia organizacional ante el fallo. La nota menciona que cuando los experimentos fallan —y fallan seguido— muchas empresas no tienen capacidad institucional para insistir e iterar. Desde comportamiento, eso es clave: si la primera experiencia del usuario ocurre en un entorno punitivo, la adopción muere. Una mala interacción inicial crea una heurística interna: “esto da problemas”. A partir de ahí, cada microfricción confirma la decisión de volver al hábito.
El resultado final es perverso para el C-Level: se reporta “IA desplegada”, pero no hay retorno. Se celebra la implementación, se castiga el cambio. Y entonces se repite el ciclo: más gasto en herramientas, más frustración, más cinismo. El costo no es solo financiero; es reputacional interno. Cada iniciativa fallida reduce el capital político para la próxima.
Incluso con adopción, muchas empresas pierden dinero por no poder facturar el consumo
La segunda parte de la historia es más silenciosa y, para un CFO, más peligrosa: aun cuando la IA se usa, muchas compañías no están equipadas para cobrarla. Erez Agmon, CEO de Vayu, lo resumió así: “La mayoría de los sistemas de facturación SaaS fueron diseñados pensando en suscripciones predecibles. La IA conduce a un consumo errático.”
El corazón del problema es estructural. El software tradicional se vendía por asientos, licencias o suscripción plana. La IA, en cambio, se consume en unidades variables: tokens procesados, llamadas a API, ejecuciones de modelos. Ese consumo no solo es variable; es intermitente, con picos y valles difíciles de predecir. Pretender que un sistema antiguo de billing capture eso sin pérdidas es como usar una caja registradora para medir electricidad.
TheStreet describe un caso concreto que ilustra la fuga de ingresos: un CFO descubrió que su sistema solo registraba el uso el día del ciclo de facturación. Si un cliente subía de nivel a mitad de mes y bajaba antes del día de cobro, el pico desaparecía. El propio CFO lo dijo con crudeza: “Solo cobro lo que estaba en la fecha del ciclo de facturación. Me perdí el pico. Perdí ese dinero.”
Ese ejemplo expone un patrón mayor: la economía de la IA castiga a la empresa que no mide con precisión. Aparecen brechas de tracking, conciliaciones manuales con hojas de cálculo y facturas armadas a mano. Todo eso funciona cuando hay pocos clientes y el volumen es bajo; colapsa cuando el producto escala.
La fuga de ingresos no es un evento; es un goteo. Y un goteo, en un modelo de consumo, se multiplica. La empresa no solo deja dinero sobre la mesa; también queda ciega para decidir precios. Si no se captura el uso real, el equipo directivo termina gestionando una ilusión: cree que el producto vale X, cuando el comportamiento del cliente está diciendo Y.
Desde la psicología del cliente, además, esto es una bomba de confianza. Un sistema de facturación que no entiende el consumo produce dos riesgos simétricos: subcobrar y regalar valor, o sobrecobrar y activar conflicto. En ambos casos se erosiona la relación comercial. La IA promete precisión; una factura errática comunica desorden.
La transformación que sí paga: rediseñar decisiones humanas y el músculo financiero que las monetiza
La noticia deja una lección dura: la IA empresarial está atrapada entre dos mundos. Por arriba, un discurso de innovación. Por abajo, hábitos humanos y sistemas financieros heredados.
Para salir de esa trampa, la estrategia no empieza con el modelo, sino con el comportamiento que se quiere ver en producción. Las compañías que van a capturar valor no serán las que tengan más pilotos, sino las que hagan tres movimientos disciplinados.
Primero, traducir la IA a decisiones concretas, con responsabilidad explícita. Si el output de IA no cambia quién decide, cuándo decide y con qué estándar de validación, el uso quedará en tareas pequeñas. La adopción real ocurre cuando el flujo operativo incorpora la herramienta como parte del “camino por defecto”, y cuando el costo de ignorarla se vuelve mayor que el costo de usarla.
Segundo, reconstruir incentivos para que el empleado no tenga que elegir entre rendimiento personal y adopción. Cuando el sistema recompensa mantener el statu quo, el hábito es racional. La empresa debe crear condiciones donde experimentar sea seguro y donde el error razonable no sea un pasivo individual, sino un costo controlado de aprendizaje.
Tercero, modernizar el billing para el mundo del consumo variable. Si el producto se cobra por uso, la contabilidad debe ver el uso con granularidad y en tiempo real suficiente para no perder picos. Sin esa base, incluso una adopción exitosa se convierte en crecimiento que no se cobra.
La síntesis para el C-Level es incómoda pero operable: el retorno de IA no se desbloquea aumentando potencia de cómputo, sino reduciendo fricción humana y financiera. La tecnología puede brillar, pero el negocio solo gana cuando la organización deja de apostar todo su capital a ese brillo y lo invierte, con disciplina, en apagar los miedos y fricciones que impiden que el usuario adopte y que la empresa capture el valor en la factura.











