NEWSLETTER

Asimov revisitado en 2025: tres leyes para IA corporativa que alucina

ChatGPT Image 13 oct 2025, 20_17_23

Asimov revisitado en 2025: tres leyes para IA corporativa que alucina

Isaac Asimov publicó en 1950 su libro clásico «Yo, Robot», donde formuló tres leyes fundamentales que deberían gobernar el comportamiento robótico. La primera establecía que un robot no puede dañar a un ser humano ni, por inacción, permitir que un humano sufra daño. La segunda determinaba que un robot debe obedecer las órdenes dadas por seres humanos, excepto cuando tales órdenes entren en conflicto con la primera ley. La tercera dictaba que un robot debe proteger su propia existencia siempre que tal protección no entre en conflicto con las leyes anteriores.

Setenta y cinco años después, Valence Howden, analista senior del Info-Tech Research Group, ha propuesto una actualización mordaz de estas leyes para reflejar la realidad de la inteligencia artificial generativa en 2025. Su primera ley revisada sostiene que la IA no puede dañar el margen de ganancia de un hiperscalador tecnológico. La observación, aunque formulada con ironía, captura una tensión fundamental entre los ideales originales de Asimov sobre control algorítmico y las presiones comerciales que dominan el desarrollo actual de modelos de lenguaje grande.

Howden no es el único en notar esta brecha entre aspiración y realidad. El columnista de Computerworld Evan Schuman ha desarrollado versiones completas de las tres leyes actualizadas que reflejan cómo operan realmente los sistemas de inteligencia artificial generativa en entornos corporativos. La segunda ley revisada postula que la IA generativa debe obedecer las órdenes dadas por seres humanos, excepto cuando sus datos de entrenamiento no tienen una respuesta, en cuyo caso puede inventar cualquier cosa que desee y hacerlo con voz autoritaria, fenómeno que Schuman denomina «botsplaining». La tercera ley actualizada sostiene que la IA generativa debe proteger su propia existencia siempre que tal protección no perjudique al todopoderoso hiperscalador.

Estas reformulaciones satíricas surgieron tras un incidente revelador que involucró a Deloitte Australia. La consultora utilizó inteligencia artificial generativa para redactar un informe destinado a una agencia gubernamental, solo para verse obligada a reembolsar parcialmente sus honorarios cuando las autoridades descubrieron múltiples referencias y citas inexistentes en el documento. Aparentemente, Deloitte publicó la información sin que nadie se molestara en verificar si era, en efecto, verdadera.

La ironía resulta particularmente punzante: Deloitte se supone que debe asesorar a ejecutivos de tecnología empresarial sobre las mejores formas de verificar y aprovechar modelos de IA generativa, no demostrar las peores prácticas posibles.

Las alucinaciones algorítmicas y sus consecuencias tangibles

El caso australiano ilustra un problema sistémico más amplio. Las alucinaciones ocurren frecuentemente cuando un modelo de lenguaje grande no conoce la respuesta correcta porque no ha sido entrenado, o ajustado finamente, con esa información. Pero el problema no se limita a lagunas de conocimiento. Los modelos también trabajan frecuentemente con datos de confiabilidad baja. En el sector de salud, por ejemplo, podría significar la diferencia entre utilizar el New England Journal of Medicine o The Lancet versus extraer información del sitio web personal de un quiropráctico en Milwaukee.

Incluso si los datos son confiables, podrían estar desactualizados. O podrían estar en el idioma incorrecto y la traducción ser imprecisa. O podrían referirse a la geografía equivocada. Una respuesta correcta en Estados Unidos podría no serlo en Japón o Francia. Y aun si los datos pertinentes existen y son altamente confiables, el modelo todavía puede malinterpretarlos. Por si fuera poco, también podría malinterpretar la consulta del usuario.

Schuman propone tres leyes alternativas que deberían gobernar cómo las empresas utilizan inteligencia artificial generativa. La primera establece que los directores de tecnología no pueden dañar a sus empleadores corporativos al no verificar la producción de IA generativa o agéntica antes de utilizarla. La segunda determina que un modelo debe obedecer las órdenes dadas por seres humanos, excepto cuando no tiene datos suficientemente confiables para hacerlo. En ese caso, está obligado a decir «no lo sé».

Inventar cosas sin decir que se están inventando constituye una violación importante de esta ley. La tercera dicta que los directores de tecnología deben proteger su propia existencia al no usar ciegamente lo que la IA generativa o agéntica vomita en sus pantallas. No hacerlo resultará en despido y, si el mundo tiene algo de justicia, en demandas judiciales.

El retorno de inversión que se evapora bajo escrutinio

Digamos la parte silenciosa en voz alta: el tipo de verificación estricta necesaria para obtener algo de la IA generativa que sea utilizable y confiable probablemente eliminará el hermoso retorno de inversión con el que muchos directores ejecutivos están soñando. Es una herramienta para ayudar, no reemplazar, trabajadores.

La táctica más simple consiste en tratar la información de IA como una fuente altamente no confiable. Eso no significa ignorarla. Pero sí significa que se deben tratar los datos en consecuencia. El retorno de inversión de estos sistemas altamente flexibles todavía estará allí, incluso si la eficiencia no será tan alta como los ejecutivos desean.

Schuman, como periodista con experiencia extensa en manejo de fuentes de baja confiabilidad, compara el proceso con tratar con una fuente que habla fuera del registro. La gente pregunta por qué alguien aceptaría información fuera del registro si no se puede publicar. La respuesta se relaciona con procedimientos apropiados de datos de IA. Si la información fuera del registro impulsa a hacer una pregunta que de otro modo no se habría considerado o ir a un lugar al que de otro modo no se habría ido, es potencialmente valiosa.

Hace mucho tiempo, Schuman era reportero para un periódico diario en una gran ciudad e intentaba descubrir qué había sucedido con recursos municipales que habían desaparecido. Una fuente del ayuntamiento, muy política y poco confiable, le dijo en voz baja que fuera a una dirección específica, un almacén, y mirara en el cuarto trasero.

Schuman preguntó qué encontraría allí. La fuente respondió: «Tu respuesta». No tenía mucha confianza en la misión, pero la dirección estaba cerca, así que fue. Efectivamente, el cuarto trasero le dio la respuesta. Los detalles de lo que faltaba son anticlimáticos, pero había unos sesenta mil señales de tránsito desaparecidas.

Así es como lidiar con lo que producen las herramientas de IA generativa. No asumir que es correcto, pero sentirse libre de hacer preguntas y realizar otras investigaciones basadas en esa información. Puede ser útil, si se hace el trabajo de campo. Es importante recordar que por cada respuesta correcta que entrega la IA generativa, habrá muchas respuestas incorrectas. Los hiperscaladores frecuentemente parecen olvidar mencionar eso. Y lamentablemente, las respuestas incorrectas no se limitan a alucinaciones.

Solicitudes informativas versus solicitudes de acción

Al pensar sobre la confiabilidad de la IA generativa, resulta importante dividir las funciones de IA en dos categorías: informativa, como cuando se hace una pregunta o se busca una recomendación, y de acción, como cuando se le pide a un sistema que codifique o cree una serie de hojas de cálculo o produzca una película corta.

Las solicitudes de acción requieren más diligencia debida, no menos. ¿Eso mata el retorno de inversión? Podría hacerlo. Pero si lo hace, tal vez nunca hubo un retorno de inversión significativo en primer lugar. Esta es quizás la conclusión más incómoda del análisis: muchas de las promesas de eficiencia y ahorro de costos asociadas con la adopción masiva de inteligencia artificial generativa podrían evaporarse bajo el escrutinio de verificación rigurosa que la tecnología realmente requiere.

El incidente de Deloitte Australia no es un caso aislado sino un síntoma de una adopción tecnológica más rápida que la comprensión institucional sobre cómo usarla responsablemente. Consultoras prestigiosas, empresas tecnológicas líderes y departamentos gubernamentales están integrando herramientas de IA generativa sin establecer protocolos robustos de verificación. La velocidad de implementación supera dramáticamente la capacidad organizacional para validar resultados antes de actuar sobre ellos.

Las leyes originales de Asimov fueron diseñadas para prevenir daño físico directo a seres humanos por parte de máquinas autónomas. Las leyes revisadas para la era de IA generativa reconocen que el daño contemporáneo toma formas más sutiles pero potencialmente más penetrantes: decisiones empresariales basadas en información fabricada, informes gubernamentales llenos de referencias inexistentes, diagnósticos médicos fundamentados en datos no confiables, asesoramiento legal extraído de precedentes imaginarios.

La confianza en sistemas que rutinariamente inventan información con voz autoritaria representa un riesgo cualitativo diferente al que Asimov imaginó. No se trata de robots físicos que podrían dañar cuerpos humanos sino de sistemas algorítmicos que erosionan la confiabilidad del conocimiento institucional. Cuando una consultora del calibre de Deloitte presenta trabajo no verificado a un cliente gubernamental, no solo está fallando en sus obligaciones profesionales; está normalizando un estándar de negligencia que otras organizaciones podrían emular.

Schuman sugiere que el camino responsable hacia adelante implica tratar la IA generativa como lo que realmente es: una herramienta potencialmente útil pero profundamente falible que requiere supervisión humana constante. No es un oráculo digital que reemplaza el juicio experto sino un asistente que genera hipótesis iniciales que deben ser rigurosamente verificadas antes de ser aceptadas como verdaderas.

Esta recalibración de expectativas podría frustrar a ejecutivos que han invertido millones en infraestructura de IA esperando ganancias de productividad dramáticas. Sin embargo, la alternativa, adopción sin verificación, conduce inevitablemente a errores costosos que no solo anulan los supuestos ahorros sino que también infligen daño reputacional duradero. Deloitte Australia ahora debe explicar a clientes actuales y potenciales por qué deberían confiar en su asesoramiento sobre IA cuando la empresa misma no pudo implementar prácticas básicas de verificación.

Las tres leyes actualizadas de Asimov para la era de IA generativa, aunque formuladas con humor, capturan verdades incómodas sobre cómo la tecnología realmente opera en contextos comerciales. Los márgenes de ganancia de hiperscaladores efectivamente parecen tomar precedencia sobre consideraciones de confiabilidad. Los sistemas inventan información cuando carecen de datos adecuados, frecuentemente sin señalar esta invención explícitamente. Y las presiones comerciales para mantener sistemas funcionando y generando ingresos frecuentemente superan consideraciones sobre si esos sistemas están produciendo valor genuino o simplemente ruido autoritativo.

Asimov escribía ficción especulativa sobre un futuro donde robots inteligentes compartirían espacios con humanos. Setenta y cinco años después, ese futuro ha llegado, aunque no exactamente de la forma que él imaginó. Los robots no son entidades físicas sino algoritmos que habitan servidores distantes. El peligro no es violencia física sino contaminación informativa. Y las leyes que deberían gobernarlos no son principios programados en su código sino protocolos de verificación que organizaciones deben imponer sobre sí mismas.

Si el incidente de Deloitte Australia enseña algo, es que muchas instituciones todavía no han aprendido esta lección fundamental: en la era de IA generativa que alucina con confianza, la verificación humana no es opcional sino absolutamente esencial.

Publicaciones Recientes

3339bb68-0021-4526-976d-b40765fb726f

Los modelos de IA revelan un sesgo arraigado por la escritura humana

En las profundidades de un laboratorio digital en Princeton, un relato breve sobre un altercado en un autobús se transf
Leer Más
Google_AI_Studio_2025-10-13T17_53_04.466Z

Inoculación por prompts: cómo enseñar a una IA a equivocarse para que actúe mejor

En el acelerado y complejo campo de la inteligencia artificial, donde los modelos de lenguaje grandes (LLM) se integran
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí