Una investigación explosiva del MIT, Northeastern y Meta revela una vulnerabilidad estructural crítica en los LLMs: los modelos priorizan la sintaxis sobre la seguridad, permitiendo que oraciones gramaticalmente complejas burlen los filtros más avanzados. SEGURIDAD INFORMÁTICA 14 MIN LECTURA LLM JAILBREAK La premisa fundamental sobre la que descansa la seguridad de la Inteligencia Artificial generativa…

To access this post, you must purchase Suscripción Mundo IA Pro.