Una investigación explosiva del MIT, Northeastern y Meta revela una vulnerabilidad estructural crítica en los LLMs: los modelos priorizan la sintaxis sobre la seguridad, permitiendo que oraciones gramaticalmente complejas burlen los filtros más avanzados. SEGURIDAD INFORMÁTICA 14 MIN LECTURA LLM JAILBREAK La premisa fundamental sobre la que descansa la seguridad de la Inteligencia Artificial generativa…

Las palabras complejas son las nuevas armas contra la IA
Publicaciones Recientes
El hallazgo que rompe la Ley de Moore en IA: pensar es más barato que entrenar
<p>Hasta hoy, la inteligencia artificial se definía por su peso muerto: la cantidad de parámetros congelados en una re
Inteligencia artificial vs. sentido común: una auditoría de consumo
<p>La humanidad ha observado con una mezcla de fascinación colectiva y vértigo existencial cómo los sistemas de intel


