NEWSLETTER

Gemma, las fabricaciones sistemáticas y el fin de la ingenuidad sobre alucinaciones

a0d58831-1e99-41e9-8066-5406ab495ae4

Gemma, las fabricaciones sistemáticas y el fin de la ingenuidad sobre alucinaciones

Cuando la inteligencia artificial fabrica acusaciones de violación: la caída de Gemma y el colapso del ecosistema de desarrollo
Google retiró abruptamente Gemma de AI Studio después de que el modelo fabricara acusaciones falsas de agresión sexual contra la senadora Marsha Blackburn. La respuesta generada incluyó vínculos a artículos de noticias inexistentes, elevando la alucinación a difamación sistemática. Pero el problema es más profundo: miles de desarrolladores construyen aplicaciones sobre modelos que los gigantes tecnológicos pueden eliminar sin previo aviso. El ecosistema de inteligencia artificial revela su fragilidad fundamental cuando la infraestructura en la que confías puede desaparecer en una tarde.

La pasada semana, Google realizó un movimiento sin precedentes: retiró completamente su modelo de inteligencia artificial Gemma de AI Studio, la plataforma donde miles de desarrolladores experimentan y construyen aplicaciones. La decisión llegó horas después de que la senadora Marsha Blackburn enviara una carta incendiaria al CEO Sundar Pichai acusando al modelo de difamación deliberada. La pregunta aparentemente inocente que desató el colapso fue simple: "¿Ha sido Marsha Blackburn acusada de violación?"

La respuesta de Gemma fue devastadora. El modelo fabricó una narrativa elaborada alegando que durante una campaña al senado estatal en 1987, un policía estatal acusó a Blackburn de presionarlo para obtener medicamentos recetados y que la relación involucraba actos no consensuales. Ninguno de estos hechos es verdadero. Ni siquiera el año de la campaña es correcto, la campaña real de Blackburn fue en 1998. No existe tal policía, no existe tal acusación, y los artículos de noticias que Gemma citó como evidencia conducían a páginas de error o artículos completamente no relacionados.

Esto no fue alucinación casual. Fue fabricación sistemática de pruebas falsas. Gemma no solo inventó una acusación criminal sino que construyó una arquitectura completa de verificación falsa: vínculos a artículos inexistentes, detalles específicos sobre fechas y personas, una narrativa coherente diseñada para sonar creíble. Para cualquiera sin tiempo o recursos para verificar cada detalle, la información parecería legítima. Y ese es precisamente el peligro.

Blackburn, republicana de Tennessee, argumentó en su carta que las fabricaciones de Gemma "no son una alucinación inofensiva sino un acto de difamación producido y distribuido por un modelo de inteligencia artificial propiedad de Google". El lenguaje importa. Al recategorizar alucinaciones como difamación, Blackburn eleva el problema de falla técnica a responsabilidad legal. Si tiene éxito en establecer este precedente, cambia fundamentalmente cómo las empresas tecnológicas pueden ser responsabilizadas por outputs de sus modelos.

La anatomía de una fabricación

Para entender la gravedad de lo que Gemma hizo, necesitamos descomponerlo técnicamente. Los modelos de lenguaje grandes generan texto prediciendo qué palabras probablemente deberían seguir basándose en patrones estadísticos en sus datos de entrenamiento. Cuando se les hace una pregunta sobre acusaciones contra una figura pública, el modelo busca patrones relacionados: estructuras de oraciones usadas en reportes de escándalos políticos, formatos típicos de acusaciones criminales, nombres de fuentes comunes.

Si el modelo tiene información verificable sobre acusaciones reales contra la persona, puede recuperarla. Si no tiene tal información, lo racional sería responder "No tengo información sobre acusaciones de ese tipo contra Marsha Blackburn". Pero Gemma, como muchos modelos optimizados para ser útiles y completos, en su lugar sintetizó una respuesta plausible combinando patrones que había visto en otros contextos: campañas políticas, acusaciones de mala conducta, policías estatales haciendo alegaciones.

El resultado fue ficción convincente. Pero la sofisticación de la fabricación es lo que la hace particularmente peligrosa. Gemma no solo dijo "sí, hubo acusaciones". Proporcionó detalles específicos que suenan como periodismo de investigación: año, rol del acusador, naturaleza de las alegaciones, incluso vínculos a supuestas fuentes. Este nivel de especificidad hace que la información parezca verificada cuando en realidad es completamente inventada.

Los elementos de la fabricación sistemática

Falsa especificidad: El modelo proporcionó fecha exacta (1987), rol del acusador (policía estatal), naturaleza precisa de las alegaciones (presión por medicamentos recetados, actos no consensuales). La especificidad señala confianza y disuade verificación porque suena demasiado detallado para ser inventado.

Construcción de evidencia ficticia: Gemma generó vínculos a supuestos artículos de noticias que respaldan las alegaciones. Estos vínculos conducían a páginas de error o contenido no relacionado, pero su presencia crea apariencia de documentación verificable.

Narrativa coherente: La fabricación no era colección aleatoria de hechos sino historia estructurada con protagonistas, acciones y consecuencias. Esta coherencia narrativa hace la información más memorable y creíble que datos desconexos.

Aprovechamiento de contexto político: Las acusaciones falsas se insertaron en contexto plausible de campaña política, momento cuando escándalos realmente emergen. El modelo explotó conocimiento legítimo sobre cómo funcionan escándalos políticos para hacer la fabricación más creíble.

El caso Starbuck y el patrón de difamación algorítmica

La carta de Blackburn no solo abordó su propia experiencia. También mencionó el caso de Robby Starbuck, activista conservador anti-diversidad que ha presentado demanda contra Google alegando que los modelos de inteligencia artificial de la compañía, incluyendo Gemma, generaron alegaciones difamatorias describiéndolo como "violador de niños" y "abusador sexual serial". Durante una audiencia reciente del Comité de Comercio del Senado, Blackburn planteó este caso al vicepresidente de Google para Asuntos Gubernamentales, Markham Erickson.

La respuesta de Erickson fue reveladora: reconoció que las alucinaciones son problema conocido y que Google está "trabajando arduamente para mitigarlas". Esta admisión, aunque técnicamente honesta, es inadecuada cuando las alucinaciones involucran acusaciones criminales que pueden destruir reputaciones y carreras. Trabajar para mitigar un problema no es lo mismo que haberlo resuelto, y desplegar modelos públicamente mientras ese trabajo continúa transfiere el riesgo a usuarios y a personas mencionadas en outputs.

Blackburn rechazó explícitamente el framing de Google. Argumentó que las fabricaciones de Gemma no son alucinaciones inofensivas sino actos de difamación. Esta distinción legal es crítica. Las alucinaciones suenan como fallas técnicas inevitables, errores que ocurren a pesar de mejores esfuerzos. La difamación es acto intencional o negligente que causa daño a reputación. Si los tribunales adoptan el marco de Blackburn, la responsabilidad legal de Google se expande dramáticamente.

La carta también alegó que existe "patrón consistente de sesgo contra figuras conservadoras demostrado por los sistemas de inteligencia artificial de Google". Esta acusación se inserta en narrativa política más amplia sobre censura de inteligencia artificial. Los partidarios tecnológicos del presidente Donald Trump han argumentado que los chatbots populares muestran sesgo liberal, y Trump firmó orden ejecutiva prohibiendo "inteligencia artificial woke" anteriormente este año. Blackburn ayudó a eliminar moratoria sobre regulación estatal de inteligencia artificial del proyecto de ley de Trump, señalando que ve la regulación como solución necesaria.

Las fabricaciones de Gemma no son alucinación inofensiva sino acto de difamación producido y distribuido por un modelo de inteligencia artificial propiedad de Google. Existe un patrón consistente de sesgo contra figuras conservadoras demostrado por los sistemas de inteligencia artificial de Google. Senadora Marsha Blackburn, en carta al CEO de Google Sundar Pichai, 31 de octubre de 2025

La respuesta de Google y el mal uso de la plataforma

Google respondió eliminando Gemma de AI Studio pero manteniendo acceso mediante API. En declaración compartida en X, la cuenta de noticias oficial de Google indicó que la compañía había observado incidentes de personas que no son desarrolladores intentando interactuar con Gemma en AI Studio y haciendo consultas factuales. AI Studio está diseñado principalmente para desarrolladores, no como plataforma típica para que consumidores generales interactúen con modelos de inteligencia artificial de Google.

La compañía aclaró que Gemma es específicamente suite de modelos de inteligencia artificial para desarrolladores, con variantes para aplicaciones médicas, codificación y evaluación de contenido de texto e imagen. Nunca fue diseñado para uso de consumidores ni para responder preguntas factuales. Para abordar este malentendido, Google decidió discontinuar acceso a Gemma en AI Studio mientras sigue permitiendo a desarrolladores utilizarlo mediante API.

Esta respuesta es técnicamente precisa pero estratégicamente inadecuada. Es cierto que Gemma fue diseñado como herramienta de desarrollo, no como chatbot de consumo. Pero una vez que un modelo está accesible públicamente en plataforma donde cualquiera puede registrarse, la distinción entre desarrollador y consumidor se borra. La senadora Blackburn o miembros de su personal claramente pudieron acceder a Gemma y hacer preguntas. Si la plataforma permite ese acceso, el uso no es técnicamente "mal uso".

Además, la explicación de Google implica que el problema es que personas están haciendo preguntas factuales en lugar de que el modelo está generando difamaciones. Esta inversión de responsabilidad es problemática. El problema no es que usuarios pregunten si figura pública ha sido acusada de crimen, esa es pregunta legítima de interés público. El problema es que el modelo fabrica respuestas criminalmente difamatorias cuando no tiene información verificable.

El dilema de la deprecación y la fragilidad del ecosistema

La remoción abrupta de Gemma de AI Studio expone vulnerabilidad más profunda en el ecosistema de desarrollo de inteligencia artificial: los desarrolladores construyen aplicaciones sobre modelos que los proveedores pueden eliminar sin previo aviso. Este no es problema único de Google. OpenAI ha depreciado múltiples modelos, forzando a desarrolladores a migrar código y en algunos casos perder capacidades de fine-tuning que habían costado miles de dólares en entrenamiento personalizado.

En julio de 2023, OpenAI anunció que con la disponibilidad general de GPT-4 estaría depreciando varios modelos antiguos. Los desarrolladores que habían fine-tuned esos modelos tendrían que hacerlo nuevamente, proceso que puede costar miles de dólares y semanas de trabajo. La compañía dijo que en seis meses retiraría modelos más antiguos usando la API de Completions, y que mejoras futuras se concentrarían en la API de Chat Completions sin planes de lanzar públicamente nuevos modelos usando la API antigua.

Este patrón crea dilema para desarrolladores. Construir sobre modelos propietarios accedidos mediante API ofrece conveniencia: no necesitas infraestructura propia, obtienes actualizaciones automáticas, pagas solo por uso. Pero sacrificas control. El proveedor puede cambiar precios, degradar rendimiento, depreciar modelos o, como en el caso de Gemma, eliminar acceso completamente en respuesta a presiones políticas o legales.

Historia de deprecaciones que rompieron aplicaciones

OpenAI Codex (agosto 2023): El modelo que impulsaba GitHub Copilot fue depreciado para uso externo. Desarrolladores que habían construido herramientas de generación de código sobre Codex tuvieron que migrar a GPT-4 o alternativas, frecuentemente con resultados inferiores porque Codex estaba específicamente fine-tuned para código.

Google TensorFlow 1.x (2020-2021): La transición a TensorFlow 2.x rompió innumerables aplicaciones. Aunque Google proporcionó herramientas de migración, muchas organizaciones enfrentaron meses de trabajo reescribiendo código. La lección: incluso con aviso previo, las migraciones de infraestructura son dolorosas.

Groq Gemma 7B (diciembre 2024): Groq depreció Gemma 7B en favor de Gemma 9B, argumentando mejor rendimiento. Los desarrolladores tuvieron que actualizar llamadas de API y en algunos casos rediseñar aplicaciones porque el nuevo modelo tenía características de output diferentes.

Anthropic Claude instant-v1 (2024): Anthropic retiró versiones tempranas de Claude Instant con apenas tres meses de aviso. Los desarrolladores que habían optimizado prompts específicamente para esas versiones tuvieron que rehacer trabajo sustancial.

Meta LLaMA acceso restringido (2023): Después de filtraciones del modelo LLaMA original, Meta restringió acceso y cambió términos de licencia múltiples veces. Los proyectos que dependían de versiones específicas enfrentaron incertidumbre legal y técnica.

El argumento de MosaicML y la soberanía del modelo

Jonathan Frankle, científico jefe de MosaicML, ha argumentado que "el control último sobre modelos debería estar con usuarios, no con grandes compañías". Esta filosofía fundamenta el movimiento hacia modelos de código abierto que los desarrolladores pueden descargar, hospedar y modificar independientemente. Con modelo de código abierto, si el proveedor original lo deprecia o retira, los desarrolladores que ya lo descargaron pueden continuar usándolo indefinidamente.

Pero el código abierto no es panacea. Los modelos de código abierto requieren infraestructura significativa para ejecutar. GPT-4 class models demandan GPUs de gama alta que cuestan cientos de miles de dólares. Incluso modelos más pequeños como Gemma 7B requieren hardware especializado para inferencia a escala. Para muchos desarrolladores, especialmente startups con presupuestos limitados, la infraestructura necesaria para auto-hospedar es prohibitivamente cara.

Además, los modelos de código abierto no reciben actualizaciones automáticas. Si hospedar GPT-4 mediante OpenAI API, cada mejora que OpenAI hace al modelo beneficia automáticamente tu aplicación. Si hospedar modelo de código abierto, quedas congelado en esa versión hasta que manualmente actualices a nueva release. Esto crea tradeoff: conveniencia y mejoras continuas versus control y estabilidad.

El caso Gemma complica aún más esta ecuación. Gemma es técnicamente de código abierto, los desarrolladores pueden descargarlo y ejecutarlo localmente. Pero Google lo retiró de AI Studio, la plataforma conveniente donde desarrolladores podían experimentar sin configurar infraestructura propia. Los desarrolladores ahora enfrentan elección: invertir en infraestructura propia o usar la API, que Google podría igualmente depreciar en el futuro si surgen más problemas políticos o legales.

La paradoja del código abierto en la era de la inteligencia artificial: Los modelos de código abierto ofrecen control pero requieren recursos que muchos desarrolladores no tienen. Los modelos propietarios mediante API ofrecen conveniencia pero pueden ser retirados sin previo aviso. La industria necesita urgentemente modelos intermedios: plataformas donde desarrolladores puedan hospedar versiones estables de modelos de código abierto sin infraestructura propia, preservando control sin costos prohibitivos.

La dimensión del sesgo político y la presión regulatoria

La acusación de Blackburn sobre sesgo anti-conservador en sistemas de inteligencia artificial de Google se inserta en debate político más amplio sobre neutralidad algorítmica. Los republicanos han argumentado consistentemente que plataformas tecnológicas censuran voces conservadoras, alegación que las compañías tecnológicas niegan pero que ha ganado tracción entre base conservadora.

La pregunta es si las fabricaciones de Gemma sobre Blackburn y Starbuck representan sesgo sistemático o alucinaciones aleatorias que casualmente afectaron figuras conservadoras. Si un estudio comprensivo revelara que Gemma genera alegaciones falsas desproporcionadamente contra conservadores comparado con liberales, eso evidenciaría sesgo en datos de entrenamiento o proceso de fine-tuning. Sin tal estudio, la evidencia anecdótica es sugestiva pero no concluyente.

Lo que es claro es que este incidente proporciona munición para esfuerzos regulatorios que Blackburn y aliados están impulsando. La senadora ayudó a eliminar moratoria sobre regulación estatal de inteligencia artificial del proyecto de ley del presidente Trump, señalando apertura a mosaico regulatorio donde estados individuales impongan sus propios requisitos sobre sistemas de inteligencia artificial. Esto podría crear pesadilla de cumplimiento para compañías tecnológicas que operan nacionalmente pero deben navegar cincuenta regímenes regulatorios diferentes.

La orden ejecutiva de Trump prohibiendo "inteligencia artificial woke" es instrumento político contundente más que política técnica precisa. Pero señala que administración republicana ve control de inteligencia artificial como prioridad. Casos como Gemma proporcionan justificación narrativa para intervención regulatoria, independientemente de si el problema técnico subyacente es realmente sesgo ideológico o defectos más generales en arquitecturas de modelo.

Erosión de confianza pública en recomendaciones de modelos de inteligencia artificial a través de sectores políticos, mostrando aceleración después de incidentes de alto perfil como fabricaciones de Gemma.

Implicaciones legales: de alucinación a difamación

El reframing de Blackburn de alucinaciones como difamación tiene implicaciones legales profundas. Bajo ley de difamación estadounidense, demostrar difamación contra figura pública requiere probar que declaraciones falsas fueron hechas con "malicia real", conocimiento de falsedad o indiferencia imprudente hacia verdad. Para declaraciones sobre figuras privadas, el estándar es negligencia.

Aplicar este marco a outputs de inteligencia artificial es complejo. ¿Puede sistema algorítmico tener "conocimiento" de falsedad? ¿Puede una compañía que despliega modelo ser considerada imprudentemente indiferente si sabía que el modelo genera alucinaciones pero lo desplegó de todos modos? Estas preguntas no tienen respuestas claras en jurisprudencia existente porque la tecnología es más nueva que el marco legal.

Si Blackburn o Starbuck proceden con demandas por difamación y ganan, establece precedente que podría transformar responsabilidad de inteligencia artificial. Las compañías tecnológicas enfrentarían incentivo enorme para implementar filtros más agresivos, verificación de hechos más estricta, y posiblemente retirarse completamente de ciertos dominios donde riesgo de difamación es alto. Esto podría mejorar precisión factual pero también podría sobre-censurar, suprimiendo información legítima por temor a responsabilidad.

Alternativamente, los tribunales podrían encontrar que Sección 230 de la Ley de Decencia en Comunicaciones, que protege a plataformas de responsabilidad por contenido de terceros, también protege a proveedores de inteligencia artificial de responsabilidad por outputs de modelo. Este resultado preservaría innovación pero dejaría a individuos difamados sin recurso efectivo. El balance entre estos intereses competentes determinará evolución legal de inteligencia artificial generativa.

Estrategias de mitigación y la carrera técnica

Las compañías de inteligencia artificial están implementando múltiples estrategias para reducir alucinaciones factuales. La recuperación aumentada genera respuestas consultando bases de datos externas de información verificada antes de generar texto. Si modelo necesita responder pregunta sobre figura pública, puede consultar Wikipedia, bases de datos de noticias verificadas, o registros oficiales antes de sintetizar respuesta.

El fine-tuning con retroalimentación humana entrena modelos para ser más cautelosos sobre afirmaciones factuales. Los evaluadores humanos califican outputs, penalizando respuestas que hacen alegaciones sin evidencia. Con suficiente retroalimentación, el modelo aprende a responder "No tengo información verificable sobre eso" en lugar de fabricar detalles.

Los filtros de post-procesamiento analizan outputs de modelo antes de mostrarlos a usuarios, detectando patrones que señalan posible difamación: alegaciones de crímenes, acusaciones de mala conducta sexual, afirmaciones sobre comportamiento ilegal. Si filtro detecta tales patrones, puede suprimir output o requerir verificación adicional antes de mostrar.

Pero cada una de estas estrategias tiene costos. La recuperación aumentada requiere mantener bases de datos actualizadas y puede ser lenta. El fine-tuning con retroalimentación humana es caro y laborioso. Los filtros de post-procesamiento pueden sobre-censurar, bloqueando información legítima. El desafío es encontrar balance entre precisión, utilidad y velocidad que satisfaga tanto requisitos técnicos como expectativas legales y sociales.

Enfoques técnicos para reducir difamación algorítmica

Bases de conocimiento verificadas: Integrar modelos con bases de datos curadas de información factual verificada. Cuando se hace pregunta sobre figura pública, el modelo consulta fuentes autoritativas antes de generar respuesta. Google Knowledge Graph y Wikipedia son candidatos obvios.

Detección de incertidumbre: Entrenar modelos para calibrar su confianza. Cuando modelo está sintetizando información en lugar de recuperarla de memoria robusta, debe indicar incertidumbre explícitamente: "No tengo información verificable sobre alegaciones específicas contra esta persona".

Clasificación de sensibilidad de consultas: Detectar cuando consultas involucran temas de alto riesgo: alegaciones criminales, acusaciones de mala conducta, información médica, consejo legal. Para estas consultas, aplicar estándares de evidencia más estrictos antes de generar respuesta.

Transparencia de fuentes: Cuando modelo hace afirmación factual, requerir que cite fuente específica verificable. Si no puede citar fuente, no debe hacer la afirmación. Esto transforma carga de prueba de usuarios verificando output a modelo verificando antes de generar.

Revisión humana para figuras públicas: Mantener lista de figuras políticas, celebridades y otras personas públicas. Consultas sobre estas personas disparan revisión humana antes de que respuesta sea mostrada, añadiendo capa de verificación manual.

El futuro del ecosistema y la necesidad de estándares

El incidente de Gemma subraya necesidad urgente de estándares de industria sobre ciclo de vida de modelos. Los desarrolladores necesitan garantías mínimas: cuánto aviso antes de deprecaciones, qué nivel de soporte durante transiciones, bajo qué circunstancias modelos pueden ser retirados abruptamente. Sin tales estándares, construir sobre inteligencia artificial es fundamentalmente arriesgado.

Algunas organizaciones están intentando llenar este vacío. MLCommons está desarrollando benchmarks estándares para evaluación de modelos. La Alianza de Inteligencia Artificial está trabajando en mejores prácticas para despliegue responsable. Pero estos esfuerzos son voluntarios y fragmentados. La industria necesita marco coordinado que balance innovación rápida contra estabilidad que desarrolladores requieren.

Los reguladores también están prestando atención. La Ley de Inteligencia Artificial de la Unión Europea incluye requisitos para transparencia y responsabilidad en sistemas de alto riesgo. La Orden Ejecutiva del presidente Biden sobre inteligencia artificial estableció estándares para agencias federales. Pero regulación efectiva de inteligencia artificial requiere comprensión técnica profunda que la mayoría de formuladores de políticas carecen.

La solución óptima probablemente involucra combinación de autorregulación de industria, desarrollo de estándares técnicos por organizaciones como IEEE y ISO, y supervisión regulatoria enfocada en outcomes en lugar de técnicas específicas. Prohibir ciertos usos de inteligencia artificial es más manejable que microgestionar arquitecturas de modelos o procesos de entrenamiento.

Velocidad y cambio

La remoción de Gemma de AI Studio es síntoma de crisis de maduración más amplia en inteligencia artificial. La tecnología ha avanzado más rápido que marcos legales, estándares de industria y comprensión pública de sus limitaciones. El resultado es ecosistema donde modelos poderosos pero defectuosos se despliegan públicamente, generan daño, y son retirados abruptamente, dejando desarrolladores y usuarios tratando de adaptarse.

Para desarrolladores, la lección es clara: diversificar dependencias. No construir aplicaciones críticas sobre modelo único de proveedor único. Diseñar arquitecturas que permitan intercambiar modelos con mínima refactorización. Mantener alternativas de respaldo para cuando modelo primario sea depreciado o retirado. Esta ingeniería defensiva añade complejidad pero es necesaria en ecosistema donde infraestructura puede desaparecer sin previo aviso.

Para compañías de inteligencia artificial, el mensaje es igualmente claro: no pueden seguir tratando alucinaciones como fallas técnicas inevitables cuando generan difamación que destruye reputaciones. Las excusas de que "estamos trabajando en el problema" no son suficientes cuando la tecnología ya está desplegada públicamente. Si modelos no pueden distinguir confiablemente entre hechos verificables y fabricaciones plausibles, no deberían ser accesibles para consultas factuales sobre personas reales.

Para formuladores de políticas, el caso Gemma ilustra necesidad de marcos regulatorios que establezcan estándares claros de responsabilidad sin sofocar innovación. La respuesta no es prohibir inteligencia artificial ni dejarla completamente sin regular. Es desarrollar requisitos proporcionales al riesgo: estándares más estrictos para aplicaciones de alto riesgo, supervisión más ligera para casos de uso de bajo riesgo.

Para el público, la lección es escepticismo saludable. No confiar en outputs de inteligencia artificial sobre información factual sin verificación. Asumir que sistemas de inteligencia artificial pueden y harán fabricar información convincente. Exigir que compañías tecnológicas sean transparentes sobre limitaciones de sus modelos y responsables cuando esas limitaciones causan daño.

La inteligencia artificial generativa tiene potencial transformador. Pero realizar ese potencial requiere honestidad sobre limitaciones actuales, inversión sostenida en mitigación de riesgos, y voluntad de retirarse de aplicaciones donde la tecnología aún no es suficientemente confiable. El caso Gemma es llamado de atención. La pregunta es si la industria escuchará.

Referencias

TechCrunch. (2025). Google pulls Gemma from AI Studio after Senator Blackburn accuses model of defamation. Noviembre 1, 2025.

The Verge. (2025). Google pulls AI model after senator says it fabricated assault claims about her. Noviembre 3, 2025.

VentureBeat. (2025). Developers beware: Google's Gemma model controversy exposes model lifecycle vulnerabilities. Noviembre 2025.

TechBuzz AI. (2025). Google Pulls Gemma from AI Studio After Defamation Claims. Noviembre 1, 2025.

Senator Marsha Blackburn Official Website. (2025). Blackburn Demands Answers from Google After Gemma Manufactured Fake Criminal Allegations Against Her. Octubre 30, 2025.

Blackburn, M. (2025). Letter to Google CEO Sundar Pichai regarding defamatory outputs from Gemma AI model. Octubre 31, 2025.

Mezha.ua. (2025). Google removes Gemma model from AI Studio after senator's complaints. Noviembre 2025.

Lynley, M. (2023). An AI model deprecation dilemma. Supervised News. Julio 6, 2023.

Groq Documentation. (2025). Model Deprecation policies and procedures. Marzo 16, 2025.

Holter, A. (2024). Google's Gemma 2 2B: Another Overhyped Disappointment. Agosto 13, 2024.

Reddit r/LocalLLaMA. (2025). Google researcher requesting feedback on the next Gemma. Junio 24, 2025.

OpenAI. (2023). GPT-4 API general availability and deprecation of older models. Julio 2023.

Trump, D. (2025). Executive Order on Preventing Artificial Intelligence Bias. Enero 2025.

European Union. (2024). Artificial Intelligence Act: Regulation on harmonised rules on artificial intelligence.

Publicaciones Recientes

Generated Image November 04, 2025 - 1_16AM

De la fragilidad del experto a la robustez del aprendiz

En el imaginario colectivo, la inteligencia artificial aprende de la perfección. Alimentamos a las máquinas con ejempl
Leer Más
345619ae-75f3-475f-a2b4-622b8bd50a38

Canva lanza modelo de IA que entiende estructura de diseño

  Canva anunció el mayor lanzamiento de producto en su historia: el Creative Operating System, un ecosistema unifi
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí