Por Javier Ruiz, Periodista Especializado en Inteligencia Artificial y Tecnología Emergente, para Mundo IA
Del espejismo al impacto
El entusiasmo por la inteligencia artificial generativa encendió la imaginación de directorios, gerencias y equipos de innovación en casi todas las industrias. La promesa sonaba irresistible: asistentes que escriben, traducen y programan, motores que resumen y analizan, sistemas que automatizan desde el primer mail hasta el último reporte. En los papeles, la curva de productividad se disparaba. En la práctica, un estudio reciente del MIT reveló un dato frío y contundente: nueve de cada diez iniciativas empresariales de IA generativa no logran impacto financiero medible. El contraste entre expectativa y realidad obliga a revisar decisiones, reordenar prioridades y, sobre todo, entender por qué la mayoría de los pilotos se quedan en la banquina mientras unos pocos cruzan la meta.
La escena que se despliega hoy no es la de un laboratorio en estado de prueba, sino la de un tablero económico en el que cada jugada tiene efectos inmediatos sobre empleo, productividad y conocimiento. La inteligencia artificial no puede seguir tratándose como un juguete de feria: requiere disciplina, visión estratégica y la capacidad de distinguir dónde aporta valor y dónde solo produce humo. El desafío, en última instancia, es abandonar la comodidad de los anuncios rimbombantes y asumir la incomodidad de construir procesos que generen retornos tangibles. Solo entonces la inteligencia artificial dejará de ser promesa y empezará a consolidarse como una de las fuerzas económicas más serias de este siglo.
La estadística que pincha la burbuja: qué significa que el 95% fracase
Que el 95% de los proyectos empresariales de IA generativa “fracase” no implica que no produzcan nada en absoluto. Significa algo más preciso: no generan impacto discernible en ingresos, costos o productividad que justifique la inversión. Pueden existir mejoras locales o percibidas, pero no se traducen en números que muevan la aguja del negocio. El hallazgo llega luego de relevar implementaciones reales, entrevistas con ejecutivos y un análisis transversal de sectores. La foto general es clara: adopción alta, transformación baja.
La explicación inicial puede sonar contraintuitiva. Si tantas compañías prueban estas herramientas, ¿cómo puede ser que casi ninguna logre resultados contundentes? La respuesta está en una cadena de eslabones flojos: selección de casos de uso por moda más que por valor, prototipos que no superan la etapa de laboratorio, integración deficiente a los flujos de trabajo, métricas laxas y, sobre todo, sistemas que no aprenden del contexto operativo. En otras palabras, tecnologías potentes aplicadas de forma ingenua o aislada.
Otra pista fundamental es sectorial. La disrupción visible se concentra en Tecnología y Medios/Telecomunicaciones, donde la IA se integra más naturalmente a productos, contenido y herramientas de desarrollo. En el resto, abunda la experimentación, pero los cambios estructurales son escasos. El presentimiento de muchos mandos medios se confirma con datos: más allá de algún atajo para redactar correos o agilizar la lectura de informes, el core operacional del negocio luce sorprendentemente parecido al de antes.
Del piloto a la producción: el bache donde se pierde el 95%
El gran bache aparece cuando un prototipo intenta convertirse en herramienta real. Montar un piloto es fácil: con una cuenta en un servicio popular, algunos prompts ingeniosos, un conector a documentos internos y un demo atractivo, cualquiera puede impresionar en una reunión. Lo difícil es transformar eso en un sistema estable, integrado y seguro, capaz de convivir con la maquinaria diaria de la empresa sin poner en riesgo datos sensibles ni incumplir regulaciones.
Ahí se concentran los tropiezos. Muchas pruebas se construyen sobre flujos frágiles que dependen de prompts demasiado delicados o de cadenas de herramientas que fallan sin aviso. Otras se desinflan porque lo que funciona en la demo no conversa con el ERP, el CRM ni los sistemas documentales, y nadie definió claramente quién valida y corrige lo que genera la máquina. La falta de memoria también pesa: las herramientas no aprenden de sus propios errores ni retienen preferencias de los equipos, repitiendo fallos que obligan a rehacer trabajo. A eso se suma la confusión con los datos: fuentes duplicadas, permisos mal configurados, versiones contradictorias. Y en el fondo, la pregunta que corta cualquier entusiasmo: ¿quién se hace responsable de lo que produce el modelo? Si la respuesta no está clara, el proyecto se congela.
El desenlace es previsible. El prototipo luce bien en pantalla, pero en el día a día nadie lo adopta. Tras unas pocas alucinaciones costosas, varias correcciones manuales y algún susto con información sensible filtrada en un prompt, los equipos regresan a sus métodos conocidos. La solución queda como curiosidad para tareas puntuales y termina acumulando polvo digital.
La asignación de presupuesto explica buena parte de la brecha. Muchas organizaciones volcaron recursos a ventas y marketing porque es lo más visible: chatbots en la web, textos publicitarios, campañas automatizadas. Pero el retorno más claro viene del back office y la automatización administrativa: conciliaciones, control de calidad de datos, clasificación y extracción de información en contratos y facturas, generación de minutas, estandarización de reportes, normalización de catálogos, validaciones contables repetitivas.
La economía es simple. Cada punto de automatización administrativa que evita una hora humana cara se traduce en ahorro directo. No hace falta que sea perfecto, alcanza con que sea consistentemente bueno y que se integre sin fricción. Por el contrario, prometer crecimientos en ingresos con textos más creativos o asistentes de ventas poco acoplados al pipeline real suele tener retornos más erráticos y difíciles de atribuir. En los números duros, ahorrar cincuenta mil dólares verificables en procesos repetitivos pesa más que prometer un millón hipotético en ventas futuras.
Construir vs. comprar: control, velocidad y tasa de éxito
La tentación de desarrollar todo puertas adentro es fuerte, sobre todo en empresas con músculo técnico. Control de datos, diferenciación, orgullo ingenieril. El costo oculto es el tiempo, la curva de aprendizaje y el mantenimiento. Del otro lado están las soluciones externas que ya resolvieron el 80% del problema para cientos de clientes, con conectores y casos de uso afinados. La evidencia comparada favorece lo segundo en la mayoría de los escenarios: mayor tasa de éxito, menor tiempo a valor, menos sorpresas.
Esto no significa renunciar a la personalización ni a modelos propios cuando corresponde. Significa partir de un ladrillo probado y construir alrededor lo específico que hace a la ventaja competitiva de la empresa. Lo contrario suele derivar en equipos internos reinventando ruedas, chocando con los mismos bordes de contexto, y enterándose tarde de que el problema no era el modelo, sino el proceso que nadie rediseñó.
Métricas que importan: del video lindo al ROI verificable
La diferencia entre un demo y un producto está en la vara con que se los juzga. Si el éxito es “se ve impresionante”, vas directo al espejismo del 95%. Si el éxito es “redujo 32% el tiempo de revisión de contratos categoría A sin aumentar errores”, entonces aparece la brújula. Las métricas que sirven se sostienen sobre tres columnas:
Primero, un baseline sólido: cuánto tardaba y costaba antes el proceso, con sus variaciones, estacionalidades y curvas de aprendizaje humano. Segundo, aislar el aporte real de la IA: pruebas A/B cuando se pueda, pilotos controlados por unidades, periodos comparables. Tercero, resultados en caja: ahorro neto, ingresos atribuibles, menos errores que evitan costos futuros.
Y una más, que nunca sobra: calidad. Si la automatización gana tiempo pero degrada el resultado, alguien más adelante paga la factura. La métrica correcta evita esa ilusión peligrosa.
Mientras los proyectos oficiales se demoran, los empleados ya usan IA por fuera: cuentas personales, herramientas gratuitas, scripts caseros. Esa IA en las sombras es simultáneamente evidencia de valor y un riesgo. Prueba que la gente encuentra utilidad concreta en tareas diarias, desde un primer borrador hasta un resumen técnico. Pero también abre la puerta a fugas de información, incumplimientos y resultados imposibles de auditar.
Negarlo es inútil. Lo sensato es canalizarlo. Políticas claras de uso, versiones empresariales con resguardo de datos, plantillas y playbooks curados, capacitación práctica y, sobre todo, métricas que recojan ese valor para la organización. La alternativa es mirar para otro lado mientras la productividad sube de manera invisible y el riesgo también.
Qué está fallando en lo técnico: memoria, contexto y evaluación
Si se rasca un poco la superficie del entusiasmo, aparecen limitaciones técnicas que explican por qué tantas implementaciones terminan decepcionando. Una de las más evidentes es la memoria. Los modelos generalistas, tal como están diseñados, funcionan casi siempre como si cada interacción fuera la primera: no recuerdan lo que se corrigió ayer ni lo que el equipo necesita mañana. Sin una capa de memoria controlada, capaz de registrar aprendizajes y preferencias con reglas de acceso claras, la herramienta se vuelve reiterativa y obliga a rehacer la misma ingeniería de prompt una y otra vez. No alcanza con que un sistema “recuerde” fragmentos de chat; lo que hace falta es que modele conocimientos persistentes y auditables.
El segundo obstáculo tiene que ver con el contexto. Muchas empresas creen que basta con volcar documentos a un repositorio y conectar un modelo para que aparezca la magia. La realidad es más compleja: hay que depurar duplicados, gestionar versiones, decidir cómo se fragmentan los textos y diseñar mecanismos de recuperación que permitan al sistema usar la evidencia correcta. Cuando se hace mal, el modelo responde con aplomo pero apoyado en errores. Cuando se hace bien, detrás hay un trabajo de ingeniería de datos, taxonomías cuidadas y pruebas sistemáticas.
La tercera traba está en la evaluación. Un sistema que no se controla de manera continua se degrada con rapidez. Lo que parecía sólido en las primeras semanas deja de funcionar al cabo de unos meses. La percepción de calidad cae, los usuarios se cansan y la adopción se desploma. Para evitarlo, no hay otro camino que instrumentar pruebas de regresión, entornos de prueba que simulen condiciones reales y alarmas que avisen cuando la semántica empieza a desviarse. No es un lujo, es lo mínimo necesario para poder decir con seriedad que algo está en producción.
La ansiedad por llegar primero llevó a muchos a patear el tablero de la seguridad y el cumplimiento. El precio se paga después: filtraciones de datos sensibles, respuestas que violan normas, modelos que absorben secretos sin que nadie lo note. El camino responsable no tiene glamour, pero evita dolores caros:
Proteger la información con capas de acceso claras, anonimizar lo que se pueda, dejar huella de prompts y respuestas delicadas, firmar salidas en sistemas críticos, poner humanos donde el riesgo lo exige. Si el caso toca clientes, que legal y compliance entren desde el arranque. Y lo más importante: tener un plan de respuesta listo, porque nadie quiere estrenar su primer crisis con un chatbot citando datos personales.
Dónde sí hay retorno: back office, datos y software interno
Hay un patrón constante en los proyectos que prosperan: no brillan en la vidriera, se esconden en el depósito.
Procesamiento documental en serie con reglas rígidas, conciliaciones contables sin glamour, control de calidad de catálogos, clasificación y desvío de tickets, minutas que capturan acuerdos y responsables, asistentes de desarrollo que generan boilerplate, pruebas y migraciones, soporte interno que resuelve dudas sobre beneficios o políticas, reportes donde el texto es apenas la última capa sobre datos confiables. Nada de esto llena titulares, pero cada engranaje mueve dinero real todos los meses.
El truco no es místico: se trata de mapear procesos lo bastante estructurados como para automatizarlos sin pretender teoría de la mente. Allí donde se pueda describir insumos estandarizados, reglas verificables y salidas predecibles, la IA generativa funciona como copiloto dócil o como automatización vigilada. Allí donde el proceso es turbio, lleno de negociaciones implícitas, excepciones sin registrar y conocimiento tácito, lo que sube no es la productividad, sino la frustración.
Muchas iniciativas se diseñaron de arriba hacia abajo y murieron por falta de propiedad en el terreno. Cuando los mandos intermedios y los equipos de primera línea co-diseñan el flujo, la adopción prospera. Lo contrario genera resistencia sorda: la herramienta parece imponer trabajo extra, controles nuevos o una interfaz que nadie pidió. El resultado es abandono elegante.
El recorrido exitoso luce así: descubrir oportunidades con quienes hacen el trabajo, prototipar rápido sobre su realidad y con sus datos, iterar con métricas cocreadas, formalizar responsabilidades, y escalar recién cuando el valor se ve y se mide. No es romanticismo organizacional: es sentido común operativo. Y sí, lleva más tiempo que bajar una app y cortar la cinta, pero paga.
Presupuestar sin autoengaños: modelar el ROI con números que cierran
A la hora de pasar por finanzas, conviene hablar el idioma del CFO. Un modelo sano considera inversión inicial, costos de operación y mantenimiento, ahorro directo, ahorro indirecto, ingresos atribuibles y riesgos. Un ejemplo esquemático, simple y concreto:
Imaginemos un equipo que procesa 40.000 documentos por año. Hoy cada documento lleva en promedio 18 minutos entre lectura, extracción de datos y carga en el sistema. Si se incorpora una solución de IA que reduce ese tiempo a la mitad, cada documento pasaría a insumir 9 minutos. La diferencia son 9 minutos ahorrados por documento. Multiplicado por 40.000 documentos, hablamos de 6.000 horas de trabajo liberadas en un año. Si el costo promedio del equipo es de 25 dólares la hora, el ahorro potencial es de 150.000 dólares anuales.
Claro que la implementación también cuesta. Supongamos 60.000 dólares en licencias, 40.000 en integración inicial, 20.000 en mantenimiento y 15.000 en revisiones humanas y pruebas de calidad. En total, 135.000 dólares de gasto el primer año. Restando esa cifra al ahorro bruto, el beneficio neto inicial es de 15.000 dólares. No parece espectacular, pero lo importante es que a partir del segundo año la integración ya está paga y el ahorro escala: 150.000 menos 95.000 de costos recurrentes equivale a unos 55.000 dólares netos por año. El ejemplo muestra que, incluso con cálculos conservadores, la ecuación cierra mejor a medida que el sistema madura y se estabiliza.
El mismo ejercicio se puede hacer para no contratar servicios externos o para reubicar horas humanas a tareas de mayor valor. Lo importante es atribuir correctamente, no mezclar peras con manzanas y anotar supuestos. Si el ROI depende de que todos “se enamoren” de la herramienta y mágicamente la usen, ya estás en problemas. Si depende de tres subprocesos medibles y una fracción de tiempo validada, es defendible.
Latinoamérica y Argentina: realidades, oportunidades y atajos
En América Latina el escenario tiene un color propio. La diversidad de datos es mayor, con sistemas antiguos que conviven con islas de modernidad y una presión presupuestaria que obliga a afinar mucho más la puntería. Esa limitación se compensa con otra ventaja: los costos relativos de la mano de obra y la inventiva para encontrar soluciones de bajo costo hacen posible ensayar con rapidez en áreas donde, en otros mercados, cada experimento resultaría prohibitivo.
Los sectores que aparecen como más fértiles para dar un paso inmediato son los que dependen de documentos y trámites pesados. Los estudios jurídicos y contables, por ejemplo, podrían beneficiarse de asistentes que clasifiquen y resuman expedientes interminables. El comercio minorista, con su compleja logística y catálogos cambiantes, necesita herramientas que normalicen descripciones y aceleren reposiciones. La energía, obligada a producir reportes regulatorios voluminosos, tiene allí un terreno obvio para automatizar. La banca sufre en la trastienda con validaciones y conciliaciones que insumen miles de horas, y el sector salud se enfrenta a la necesidad de ordenar protocolos y generar resúmenes clínicos a un ritmo que los equipos humanos no logran sostener. El verdadero freno, sin embargo, no está en la tecnología sino en la gobernanza de los datos: sin fuentes limpias, taxonomías claras y accesos regulados, cualquier intento de IA es un castillo de arena. Un programa regional que organice ese terreno ya explicaría buena parte del valor, incluso antes de entrenar al primer modelo.
Para las pymes la receta sensata es empezar por lo concreto: elegir un caso de ahorro directo, incorporar piezas específicas que ya existen en el mercado y apoyarse en socios locales que reduzcan la curva de aprendizaje. En el sector público, en cambio, lo más urgente es enfocarse en los procesos que tocan directamente al ciudadano y que hoy se traban por saturación: turnos, notificaciones, expedientes. Allí la IA no solo puede recortar tiempos y mejorar la trazabilidad de cada trámite, sino también transformar de inmediato la percepción social del valor de la tecnología, que pasa de ser una promesa abstracta a una mejora visible en la vida cotidiana.
El “playbook” que maximiza la probabilidad de estar en el 5%
Cada organización enfrenta su propio laberinto, pero hay un camino que, a fuerza de repetirse, se ha consolidado como una guía sensata. No garantiza el éxito, pero aumenta mucho la probabilidad de no quedar en el 95% que fracasa. Ese camino puede resumirse en una secuencia de pasos prácticos:
-
Mapear procesos y priorizar: empezar por inventariar qué tareas son repetitivas, de alto volumen y con riesgo controlable. Allí suele estar la oportunidad de automatización con impacto visible.
-
Seleccionar pocos casos iniciales: concentrarse en dos o tres aplicaciones donde el beneficio esperado sea claro y medible, en lugar de dispersarse en decenas de pilotos menores.
-
Ordenar los datos antes de entrenar: definir fuentes únicas, establecer permisos de acceso, controlar versiones y garantizar un estándar mínimo de calidad. Sin esa base, la IA amplifica el caos.
-
Probar con soluciones maduras: elegir tecnologías que ya demostraron funcionar y evitar comprometerse de entrada con contratos largos o proveedores únicos. La flexibilidad inicial es clave.
-
Medir desde el inicio: instalar métricas duras, de negocio, que permitan comparar antes y después con claridad. Lo que no se mide se infla en promesas y se desinfla en resultados.
-
Combinar automatización y supervisión: dejar que la IA haga el trabajo rutinario de bajo costo de error y mantener a humanos en el circuito donde los fallos se pagan caros.
-
Registrar aprendizajes: documentar lo que funcionó y lo que no en repositorios abiertos dentro de la empresa, de modo que cada piloto alimente al siguiente.
-
Escalar con seguridad: a medida que se avanza, reforzar protocolos de cumplimiento, protección de datos y control de accesos para evitar incidentes.
-
Instrumentar evaluaciones continuas: pruebas de regresión, entornos de testeo y alertas de deriva semántica deben incorporarse al sistema como rutina, no como excepción.
-
Negociar contratos en base a resultados: atar la relación con proveedores a métricas de desempeño real, no a la cantidad de usuarios o a la simple compra de tokens de cómputo.
No hay fórmulas mágicas. Lo que cambia la ecuación es tratar la IA como un proyecto de transformación operativa y no como un juguete de laboratorio o una moda pasajera. La tecnología, al final, es solo un medio: el objetivo real es recortar tiempos, reducir costos, mejorar calidad y liberar capacidad humana para que se concentre en lo que verdaderamente agrega valor.
En desarrollo de software la IA generativa ya mostró ganancias de velocidad en tareas bien delineadas: boilerplate, pruebas unitarias, migraciones de framework, refactorings guiados. El retorno aparece cuando se estandariza el uso: convenciones de prompts y guardrails, revisión de código asistida, métricas de defectos y retrabajo. Donde decepciona es cuando se la pretende como arquitecta de sistemas o cuando se la deja generar código sin supervisión, metiendo deuda técnica disfrazada de genialidad.
En ingeniería de datos el caso es similar: normalizaciones, transformaciones repetidas, documentación y linaje se benefician. Pero sin gobierno de datos, la IA es un acelerador del desorden. También aquí gana quien arma catálogos curados, schemas claros, diccionarios vivos y ciclos de aprobación ligeros. La IA colabora, no reemplaza diseño de datos.
Atención al cliente y ventas: valor sí, pero con pies de plomo
En el terreno de la atención al cliente, la IA muestra su mayor utilidad en las tareas de primer contacto. Sirve para dar respuestas inmediatas a consultas frecuentes, clasificar reclamos y resumir interacciones que luego toman los equipos humanos. Pero el verdadero salto de calidad aparece recién cuando el sistema no se limita a contestar con frases amables, sino que está conectado con los motores transaccionales de la empresa. Un bot que dice “ya lo estamos procesando” pero no abre un ticket ni actualiza un registro en el sistema de gestión provoca frustración en lugar de confianza. La diferencia entre una experiencia aceptable y una experiencia transformadora no está en lo bien que redacta el modelo, sino en si puede ejecutar una acción concreta dentro del flujo de la compañía.
En el área comercial pasa algo parecido. La generación automática de copys, presentaciones o propuestas ahorra tiempo y ayuda a mantener un ritmo de producción que antes exigía muchas horas de trabajo. Sin embargo, el impacto real en ventas depende de cuestiones más profundas: la calidad de la segmentación, la relevancia de la oferta y el momento en que llega el mensaje. Una IA que no tenga en cuenta esos factores estratégicos solo multiplica correos irrelevantes que terminan en la bandeja de spam. La productividad aumenta, pero la eficacia se queda corta.
Por eso, el consejo más pragmático es empezar por los espacios donde el riesgo es menor y el beneficio tangible: la postventa y el soporte interno. Allí los usuarios valoran la rapidez de respuesta, los procesos suelen estar mejor estandarizados y los costos de un error reputacional son mucho más bajos. Una vez que la empresa acumula experiencia, gana confianza y valida que la herramienta funciona, entonces sí conviene dar el salto hacia la vidriera de ventas y marketing. De ese modo, la IA se construye sobre una base sólida y no como un truco vistoso que se desploma al primer error.
Trabajo y empleo: menos contrataciones nuevas, reconversión en curso
El impacto de la IA en el trabajo no se siente como un terremoto inmediato, sino como una pendiente que empieza a inclinarse. En los sectores donde la tecnología está más madura se nota primero en la desaceleración de contrataciones para puestos administrativos de entrada: no se trata de despidos masivos, sino de vacantes que ya no se reemplazan porque parte de esas tareas las cubre un sistema. Al mismo tiempo aparecen roles nuevos, menos visibles pero cada vez más necesarios: especialistas en procesos que saben dónde conviene insertar un modelo, diseñadores de evaluaciones que prueban la calidad de las respuestas, responsables de orquestar flujos de datos y decisiones, guardianes de gobernanza y seguridad aplicada a entornos de IA. La curva laboral se desplaza hacia arriba en la cadena de valor.
Para los trabajadores la estrategia más inteligente es apropiarse de la herramienta antes de que se imponga sola. Pasar de ejecutar pasos manuales a supervisar, corregir y mejorar sistemas que los ejecutan. Quien aprende a dialogar con estas tecnologías gana relevancia frente a quien se queda repitiendo rutinas que la máquina terminará haciendo.
Las empresas que no acompañan esa reconversión ya lo están pagando. Áreas que podrían automatizar buena parte de su trabajo siguen atadas a procesos lentos, mientras la competencia resuelve lo mismo con menos personal y menor costo. La diferencia se nota en los márgenes. No se trata de cursos eternos ni de grandes planes de reconversión: programas internos breves, con ejemplos reales y guías prácticas por área, alcanzan para que el equipo adopte la IA con confianza. La motivación crece cuando queda claro que la idea no es reemplazar personas, sino quitar de encima las tareas más pesadas y liberar tiempo para lo que realmente agrega valor.
Gobernanza y responsabilidad: quién firma lo que la IA produce
Una de las discusiones que suele aplazarse es la más básica: ¿quién se hace responsable de lo que produce la IA? En sectores regulados la respuesta es clara: siempre debe firmar un humano autorizado. Pero en otros ámbitos la tentación de dejar que el sistema opere solo es fuerte, sobre todo cuando parece funcionar bien y agiliza el trabajo. El equilibrio razonable no pasa por prohibir ni por liberar sin control, sino por graduar el nivel de supervisión según el riesgo. Lo rutinario y de bajo impacto puede automatizarse por completo. Lo intermedio requiere controles aleatorios de personas que verifiquen la calidad. Y lo verdaderamente crítico debe quedar en manos humanas que usen a la IA como apoyo, no como reemplazo.
En todos los casos la clave está en la trazabilidad. Hay que poder reconstruir qué datos alimentaron una respuesta, qué versión del modelo estaba activa, qué ajustes de prompt se aplicaron y qué correcciones hizo después un empleado. Esa cadena de evidencia permite mejorar el sistema y, llegado el caso, auditar sin sobresaltos. Lo contrario desemboca en la frase que más socava la confianza en cualquier organización: “no sabemos por qué dijo eso”.
Hay errores que nunca salen gratis. Suelen repetirse con la misma obstinación: imaginar que la curva de adopción se dará sola, creer que la herramienta aprenderá por sí misma en el único sentido que importa (el del negocio), confundir el brillo del asombro con la verdadera utilidad. También está el clásico: subestimar el costo de mantener un sistema vivo, relegar la seguridad con la excusa de que “aquí no hay datos sensibles”, confiar en que el proveedor hará milagros cuando el proceso de base está torcido o elegir plataformas por moda en lugar de por su encaje con el flujo real de trabajo.
Cuando la dirección reconoce y corrige estos sesgos, el porcentaje de proyectos que logra llegar a buen puerto aumenta de manera inmediata y tangible.
Qué debería hacer hoy un CFO y un CTO que no quieren estar en el 95%
Un CFO prudente no juega a las adivinanzas: exige tres piezas sobre la mesa. Primero, un inventario de casos de uso con retorno comprobable, no con promesas. Segundo, supuestos explicitados por escrito, porque lo que no se documenta luego se olvida o se deforma. Tercero, un mecanismo de control que permita ajustar y, llegado el caso, desinvertir. La regla es sencilla: si el piloto no mueve las métricas pactadas en el tiempo acordado, se apaga. Así, en lugar de una gran apuesta que compromete todo el presupuesto, la organización se expone a muchas jugadas pequeñas, comparables y reversibles.
Del lado técnico, un CTO pragmático arma un esqueleto común y evita las islas. Eso implica conectores seguros hacia las fuentes de datos, una memoria corporativa con permisos claros, un sistema de orquestación de flujos, evaluaciones automáticas y monitoreo constante. Con esa columna vertebral, cada prototipo puede enchufarse sin traumas y evolucionar hacia producción. Lo accesorio se reemplaza, lo esencial permanece. Si cada equipo inventa su stack aislado, en seis meses la empresa descubre que mantiene cinco arquitecturas incompatibles y paga una nube que nadie sabe justificar.
El salto que falta no es otro modelo más grande, sino sistematizar lo aprendido. Las organizaciones que ya cosechan valor hicieron varias cosas bien a la vez: eligieron procesos donde la IA hace diferencia, ordenaron datos, diseñaron flujos con quienes trabajan en ellos, midieron en serio, ajustaron sin romanticismo, y blindaron seguridad antes de escalar. No suena épico, pero funciona.
En esa dirección aparecen avances que apuntan a resolver dos cuellos de botella evidentes: la memoria de largo plazo y la coordinación de múltiples capacidades. Hoy se ve en pequeños sistemas de agentes internos, memorias estructuradas y orquestadores que combinan lectura de datos, reglas y generación. No hace falta convertir eso en un manifiesto; alcanza con aprovechar la tendencia para hacer menos demos y más producto.
Reflexión final
El 95% funciona menos como una estadística y más como advertencia: señala que la inversión en inteligencia artificial no se traduce por sí sola en valor medible. El reto no está en la magnitud de los modelos ni en la velocidad del software, sino en la disciplina de incorporarlos allí donde resuelven un problema concreto y generan ahorros o ingresos visibles.
Lo que marca la diferencia es la secuencia: identificar un área crítica, diseñar una intervención acotada, probarla con métricas claras y solo entonces expandirla. Ese es el camino en que la IA deja de ser una promesa costosa para convertirse en una infraestructura de productividad. No hace falta esperar un golpe de suerte ni un anuncio espectacular: basta con convertir cada aplicación en un resultado verificable, capaz de sostenerse en el tiempo y de justificar, con hechos, su permanencia en la empresa.
Referencias
- Fortune. MIT report: 95% of generative AI pilots at companies are failing. 18 de agosto de 2025. (Fortune)
- Virtualization Review. MIT Report Finds Most AI Business Investments Fail, Reveals ‘GenAI Divide’. 19 de agosto de 2025. (Virtualization Review)
- Yahoo Finance. MIT report: 95% of generative AI pilots at companies are failing. 18 de agosto de 2025. (Yahoo Finanzas)
- MIT News — In the Media. Clip a Fortune sobre el informe del MIT. 18 de agosto de 2025. (MIT News)
- The Register. GenAI FOMO has spurred businesses to light nearly $40 billion on fire. 18 de agosto de 2025. (theregister.com)
- arXiv. Beyond DNS: Unlocking the Internet of AI Agents via the NANDA Index and Verified AgentFacts. 18 de julio de 2025. (arXiv)