NEWSLETTER

Por qué la detección de phishing con IA definirá la ciberseguridad en 2026

9db932cf-8ec6-48ec-9c65-b5c628125f0b

Por qué la detección de phishing con IA definirá la ciberseguridad en 2026

En 2026, el campo de la ciberseguridad no se mide solo por firewalls, antivirus o la cantidad de parches instalados. Se juega, sobre todo, en el territorio de la persuasión digital. El fraude ya no llega con faltas de ortografía groseras ni con logos borrosos. Llega con correos impecables, llamados telefónicos que imitan voces reales y videollamadas donde el rostro que nos habla es una recreación sintética de un directivo. La ingeniería social siempre fue el eslabón débil, pero la inteligencia artificial ha transformado ese eslabón en un vector sofisticado y ubicuo. Lo que antes era una cadena de trucos artesanales hoy es una fábrica automatizada de engaños a escala.

Para entender por qué la detección de phishing impulsada por IA definirá la seguridad en 2026 hay que mirar dos dinámicas convergentes. Por un lado, la ofensiva: delincuentes que usan modelos generativos para redacciones impecables en múltiples idiomas, suplantación de dominio relámpago y clonación de voz o imagen; todo eso empaquetado con kits de ataque que automatizan análisis de blanco, timing y adaptación. Por el otro, la defensa: un ecosistema de modelos de lenguaje y sistemas de aprendizaje automático dentro del correo, el navegador, la pasarela de enlaces, el cliente de mensajería y el SOC, orquestados para inspeccionar texto, contexto y conducta en tiempo real. De eso va esta nota: mapear las fuerzas que alimentan una “carrera de modelos” donde el error de un lado es la ventana de oportunidad del otro.

En términos sencillos, phishing es cualquier intento de conseguir información o acceso mediante engaño. Pero en 2026 el término abarca más: correos, mensajes de chat, SMS, páginas de inicio falsas, códigos QR trucados, llamadas con voz clonada, videollamadas con caras que no existen, formularios integrados en apps internas que imitan las pantallas reales y hasta flujos de actualización de contraseñas que se ven idénticos a los oficiales. La frontera entre suplantación y autenticidad se volvió borrosa, y la tarea central de la seguridad se convirtió en discernir significado en ese ruido: ¿quién envía, para qué, desde dónde, con qué huellas, bajo qué patrón de comportamiento?

En ese escenario, la IA no es una moda, es el mecanismo operativo de ambos bandos. La pregunta no es si la IA ayuda a detectar phishing, sino cómo lo hace sin bloquear el trabajo diario ni generar fatiga de alertas. Y, más difícil, cómo lo hace en un mundo donde los atacantes también ajustan sus modelos para esquivar cada regla que se publica. La respuesta pasa por tres capas: modelos que entienden el contenido, sistemas que interpretan el contexto y motores que aprenden del comportamiento. El núcleo: ver más señales que un humano, combinarlas mejor y decidir a la velocidad de una bandeja de entrada desbordada.

En estas líneas recorreremos esa anatomía: la evolución del ataque, las capacidades defensivas de la IA, los puntos ciegos, los abusos de deepfakes y la regulación que ya presiona para elevar estándares. Cierra con recomendaciones accionables y una reflexión simple pero decisiva: la seguridad de 2026 se ganará en la interacción entre personas y modelos, entre criterio humano y detección automatizada. El objetivo no es bloquearlo todo, sino permitir el trabajo sin abrir la puerta al engaño.

Cómo cambió el phishing: precisión, automatización y escala

Durante años, el phishing se apoyó en el volumen. Correos genéricos enviados en masa y un porcentaje mínimo de clics que bastaba para hacer rentable la estafa. Ese patrón no desapareció, pero se diversificó. Con la masificación de modelos generativos y clones de voz, el “copia y pega” fue reemplazado por campañas hiperrealistas, de nicho, calibradas en tono, jerga y estilo de la organización objetivo. La calidad del engaño ahora es una función de datos disponibles: publicaciones en redes, firmas de correo, templates del área, comunicados previos, manuales internos filtrados. Cuanto más abierta es la huella digital, más preciso puede ser el ataque.

La otra diferencia es la automatización. Donde antes había un estafador paciente ahora hay un “runner” de prompts que produce decenas de versiones de un mensaje, analiza tasas de clic en caliente y reitera con pequeñas mutaciones. Si una pasarela bloquea un enlace, el kit de ataque registra la respuesta y genera una variante con dominio hermano. Si el antispam frena por exceso de urgencia en el texto, el modelo baja el tono. Si una firma cambia la plantilla de contraseña, el sistema genera una copia exacta en minutos. La escala dejó de depender de la cantidad de personas detrás del ataque y empezó a depender del tiempo de cómputo disponible.

En paralelo, emergieron dos intensificadores. Primero, la suplantación multimedia: voces clonadas que replican timbre y acento de ejecutivos, videollamadas con rostros sintéticos que instruyen transferencias y sitios falsos con microinteracciones idénticas a las oficiales. Segundo, la convergencia de canales: un correo que deriva a un chat, que confirma por llamada, que completa en landing, todo fluido y convincente. La línea entre spear phishing y el viejo correo masivo se desdibuja, y el consejo de “revisá la ortografía” perdió eficacia. Hoy el gancho es coherente, correcto y urgente, y apela a procesos internos legítimos.

Ese desplazamiento cualitativo explica por qué el factor humano sigue siendo crítico. No porque las personas “fallen”, sino porque los atacantes optimizan su ingeniería social con modelos que predicen qué mensaje es más probable que un analista de finanzas, un administrativo o un desarrollador acepte sin levantar sospechas. El blanco es el flujo cotidiano de trabajo: aprobaciones, pagos, accesos temporales, restablecimientos. El objetivo es que todo suene normal. El truco es la impecabilidad.

La defensa con IA: del filtrado de reglas a la comprensión del contexto

Detener este nuevo engaño exige mucho más que listas negras o firmas de malware. La defensa en 2026 se ordena en capas y, en cada una, la IA cumple un rol específico:

  1. Comprensión del contenido. Modelos de lenguaje y clasificadores de URL analizan el texto, el HTML, los adjuntos y la semántica de los enlaces. Buscan indicios sutiles: inconsistencias en encabezados, plantillas que imitan pero no calzan perfecto, anclas con redirecciones sospechosas, términos de urgencia y presión temporal, cambios mínimos de marca (símbolos Unicode, guiones bajos, punycode), y estructuras HTML que suelen acompañar capturas de credenciales.
  2. Análisis del contexto. La misma frase “te comparto el contrato” no significa lo mismo si proviene de un proveedor habitual o de un dominio recién registrado. La defensa moderna cruza señales: reputación del remitente, antigüedad del dominio, recorridos de DNS, certificados TLS, origen geográfico inusual, hora atípica de envío, relación histórica entre las dos identidades. También pondera el hilo conversacional: si el mensaje aparece “en medio” de una cadena real mediante secuestro de conversación, la alarma sube.
  3. Aprendizaje del comportamiento. Los sistemas modelan rutinas: quién aprueba qué, desde qué dispositivos, con qué horarios y qué montos; cómo luce un login normal, qué repositorios se consultan, qué adjuntos circulan. Con esa “huella de trabajo”, un intento de acceso ok fuera de horario, un uso inesperado de privilegios o una desviación en la cadencia de aprobaciones dispara detecciones de anomalías. El objetivo no es acusar, es preguntar: ¿esto encaja con tu normalidad?
  4. Orquestación y respuesta. La IA no solo etiqueta sospechas: arma relatos accionables. En los SOC modernos, los playbooks conectan correo, DNS, identidad y endpoint. Si un enlace aparece en diez bandejas y el sandbox detecta capturas, se bloquea el dominio en pasarelas, se impide el inicio de sesión por enlace mágico y se exige MFA reforzado a los usuarios expuestos. El éxito no es “detectar”, es cortar la cadena antes de la exfiltración o el pago.
  5. Retroalimentación continua. Las alertas correctas entrenan al sistema, las falsas positivas se usan para afinar el umbral. La diferencia, respecto de los viejos motores, está en la riqueza de la señal y la velocidad de aprendizaje. En defensa también hay modelos generativos: redactan avisos comprensibles para el usuario, resumen incidentes para el SOC y sugieren acciones automáticas según el tipo de engaño.

Todo esto convive con la obligación pragmática de no arruinar la jornada laboral. Un detector que bloquea medio correo corporativo no sirve. Por eso la precisión y la explicabilidad son dos métricas críticas en 2026. La primera reduce fricción; la segunda construye confianza. Si el sistema indica “bloqueado” y explica “el dominio fue creado hace 3 horas, el certificado es autofirmado, el contenido replica tu plantilla pero la URL apunta a un servidor fuera de tu región”, la persona entiende y colabora. Sin esa transparencia, la gente busca atajos.

Señales que miran los modelos: del texto a la fisiología de la red

Comprender cómo detecta la IA ayuda a dimensionar por qué es tan central. En la práctica, los sistemas cruzan varias familias de señales:

  • Lingüística y semántica. Modelos que puntúan urgencia (“necesito esto ahora”), autoridad (“de parte de dirección”), amenaza (“si no, te suspenderán la cuenta”), manipulación emocional (“sé que estás ocupado, solo haz clic aquí”). El modelo compara el estilo con comunicaciones internas reales y detecta “desviaciones verosímiles”.
  • Estructura de correo. Inconsistencias en SPF, DKIM, DMARC; cadenas “Received” que no encajan; headers con clientelas raras; reply-to que apuntan a servicios temporales; trackings engañosos. La IA transforma estas piezas en un vector de características y aprende patrones de fraude.
  • Reputación y temporalidad. Antigüedad del dominio, historial WHOIS ofuscado, picos de creación de subdominios, certificados TLS recién emitidos, infraestructura compartida con campañas conocidas. Los modelos de grafos unen dominios, IPs y certificados para identificar “familias” de ataque.
  • Comportamiento de clics y navegación. Tiempo hasta el clic, redirecciones, fingerprinting del navegador, carga dinámica de formularios, ofuscación de JavaScript. Un sandbox siniestro levanta sospechas si detecta intentos de “Adversary in the Middle” para capturar tokens.
  • Identidad y acceso. Dispositivos poco comunes, cambios en biometría conductual (ritmo de tecleo, movimientos del mouse), inicios de sesión desde ASN atípicos, salto de país sin viaje corporativo, elevación de privilegios fuera de proceso. La IA observa el “andamiaje vital” del trabajo digital.
  • Multimedia sintética. Para voz e imagen, los detectores buscan artefactos: latencias no humanas, sincronía labial imperfecta, ruido de codificación en bandas específicas, pérdida de microvariaciones. No hay bala de plata, pero sí heurísticas que, combinadas, suben la probabilidad de clonación.

El valor está en la convergencia: una señal aislada puede ser inocua; diez señales coordinadas cuentan una historia. Y en 2026, contar la historia con rapidez es tan importante como acertar.

Deepfakes y suplantación avanzada: del rumor al riesgo sistémico

Si hubiera que elegir un punto de inflexión en la percepción pública, sería el paso de “correos bien escritos” a “videollamadas falsas con directivos que autorizan pagos”. La clonación de voz y la recreación de rostros elevaron el impacto del engaño porque se cuelgan de un sesgo humano poderoso: creemos lo que vemos y escuchamos en vivo. En los últimos dos años, varios incidentes de alto perfil mostraron transferencias millonarias ejecutadas tras videoconferencias con participantes que no existían. La tecnología detrás de esas falsificaciones ya no requiere un estudio de Hollywood: bastan muestras públicas de voz y video, y conocimiento de la cultura interna de la empresa para fabricar un guion persuasivo.

¿Se puede detectar? Sí, pero no siempre a simple vista. Los modelos buscan artefactos acústicos, fallas de sincronía, patrones de compresión. Sin embargo, los atacantes mejoran rápido. Por eso la defensa práctica combina técnicas: verificación de identidad fuera de banda para operaciones sensibles, “palabras de control” rotativas entre equipos de finanzas, límites de monto con desdoblamiento de aprobación, y reglas simples como “ninguna instrucción de transferencia se ejecuta solo por llamada o videollamada”. La IA ayuda a sospechar; el proceso evita el daño.

La atención sobre la ingeniería social amplificada por IA también llegó a los reguladores. A nivel internacional, marcos como las directivas europeas de seguridad de redes y sistemas han presionado para elevar las prácticas de gestión de riesgo, notificación de incidentes y gobernanza. Para el sector privado, esto se traduce en auditorías de exposición, planes de continuidad y reporting coordinado. Más allá de la jurisdicción, la tendencia es clara: incidentes que involucren suplantación y robo de credenciales dejan de ser “errores humanos inevitables” para convertirse en riesgos previsibles que deben mitigarse con controles técnicos y organizativos.

¿Publicar políticas y enviar un mail anual alcanza? No. La evolución de los ataques obliga a que los programas de concientización evolucionen también: simulaciones realistas, aprendizaje en el flujo de trabajo y refuerzos contextuales cuando el usuario va a realizar una acción riesgosa. En 2026, entrenar con escenarios que incluyan correos, chats, llamadas y videollamadas es tan importante como tener MFA. La cultura se entrena con fricción bien diseñada.

El talón de Aquiles de la defensa: falsas alarmas y explicabilidad

Cualquier equipo que haya intentado aplicar IA a la detección de phishing conoce el problema clásico: si el umbral es conservador, las alertas se disparan y los usuarios se hartan; si el umbral es tolerante, se escapan ataques. La solución no es mágica, es iterativa. Dos enfoques ayudan.

Primero, detección gradual. En lugar de clasificar todo en binario, los sistemas aplican decisiones en niveles: advertir al usuario, interponer un “aislador” que abre enlaces en un navegador contenido, exigir un segundo factor antes de enviar credenciales, bloquear solo si se cumplen múltiples condiciones. El bloqueo total queda para casos con alta certeza.

Segundo, explicabilidad operativa. No hace falta exponer mil pesos técnicos, basta con explicar las tres razones más influyentes de la decisión. Un banner que diga “dominio nuevo, plantilla imitadora, certificado dudoso” y deje ver la vista segura de la página educa mientras protege. Cuanto más entiende la persona, menos pelea con el sistema.

La IA defensiva aprende del entorno. Eso la hace potente y también vulnerable. Un atacante puede tratar de “enseñarle” ruido: sembrar falsos positivos para que la empresa baje el umbral; distribuir versiones benignas de un patrón malicioso para confundir al modelo; o explotar sesgos en los datos históricos para colarse. Del lado multimedia, la carrera es abierta: detectar artefactos hoy no garantiza detectarlos mañana. Por eso en 2026 nadie serio habla de sustitución total del criterio humano. El objetivo es combinar la amplitud de la máquina con la prudencia del profesional, y reforzar la supervisión cuando eventos sensibles están en juego.

Otra frontera delicada es la privacidad. Para modelar comportamiento hace falta observar. ¿Hasta dónde observar sin invadir? La respuesta práctica: minimización de datos, finalidad clara, retención limitada, y controles de acceso estrictos. Entrenar buenos modelos no exige leer todas las conversaciones ni almacenar todo para siempre. Sí exige diseño de producto cuidadoso y auditorías que garanticen que el afán de seguridad no se convierta en vigilancia indiscriminada.

Arquitectura de una estrategia ganadora en 2026

No existe una receta universal, pero hay patrones que funcionan. Una estrategia sólida para el año que empieza a perfilarse debería incluir:

1) Correo con IA integrada. No basta con filtros por reglas. Se requieren modelos que entiendan lenguaje y contexto, con reputación de dominios, análisis de adjuntos en sandbox y verificación de autenticación. Idealmente, con capacidades de “desarme” de enlaces: abrir de forma segura, reescribir si es confiable, bloquear si es trampa.

2) Pasarela de navegación con aislamiento. Los enlaces dudosos se abren en entornos contenedores que impiden robo de tokens y ejecución de scripts activos. Esto reduce el costo de un clic errado mientras la IA decide.

3) Protección de identidad. MFA resistente a phishing (tokens físicos o passkeys), reglas de acceso adaptativo según riesgo, alertas cuando aparece AiTM, y revisión especial de accesos privilegiados. Si la identidad está blindada, el phishing pierde el botín principal.

4) Seguridad del navegador y el endpoint. Extensiones que advierten antes de completar credenciales en dominios desconocidos, detección de formularios injertados y bloqueo de inyección de scripts. En el endpoint, contención rápida si un archivo adjunto dispara comportamiento inusual.

5) Orquestación en el SOC. Integración de correo, DNS, CASB, EDR, SIEM y plataformas de automatización. Cuando la IA detecta una campaña en un equipo, el SOC distribuye la protección antes de que el resto haga clic.

6) Simulación y formación contextual. No cursos genéricos, sino ejercicios que simulan la realidad de la organización, con métricas sobre quién reporta, quién duda, quién necesitó ayuda. El objetivo no es “aprobar”, es mejorar. La IA apoya generando escenarios y personalizando refuerzos.

7) Gobernanza y evaluación continua. Revisiones periódicas de modelos, pruebas de robustez frente a ataques adversarios, control de sesgos, y canales formales para que los usuarios reporten falsos positivos o falsos negativos. La IA defensiva es un producto vivo, no una caja negra.

8) Procedimientos para operaciones sensibles. Doble verificación fuera de banda para pagos y cambios críticos, límites de monto, palabras de control rotativas y prohibición expresa de ejecutar órdenes financieras solo por videollamada o chat. La IA ayuda, el proceso decide.

Imaginemos un caso típico. Un analista de compras recibe un correo impecable de un proveedor habitual. La redacción respeta el tono, el logo está perfecto y la plantilla coincide con la que el área suele usar. Pide actualizar la cuenta de transferencia y adjunta un PDF con supuestos “nuevos términos”. El usuario, apurado, casi hace clic. ¿Qué hace la defensa?

Primero, la pasarela marca que el dominio de respuesta es nuevo y está alojado en infraestructura compartida con otras campañas sospechosas. Segundo, el modelo semántico detecta un giro inusual en la redacción: demasiado formal para ese remitente, según el historial. Tercero, el PDF, al abrirse en sandbox, intenta conectar con un servicio externo para cargar un formulario. La orquestación eleva la alerta, el cliente de correo muestra un banner claro y la apertura se hace en un navegador aislado. El usuario, informado, reporta el caso. Mientras tanto, el SOC bloquea el dominio y retropropaga la detección a todos los buzones. El ataque no avanzó, y el equipo aprendió.

Métricas que importan: menos vanidad, más realidad

En 2026, los indicadores a mirar cambian. Abrir menos incidentes no significa estar más seguro, como tampoco bloquear más significa ser eficaz. Métricas útiles:

  • Tiempo medio de exposición antes del bloqueo propagado.
  • Porcentaje de enlaces dudosos abiertos en aislamiento en lugar de en el navegador del usuario.
  • Tasa de falsos positivos percibidos por área, con foco en equipos clave (finanzas, legal, compras, tecnología).
  • Tiempo hasta el refuerzo educativo contextual tras un clic riesgoso.
  • Reducción de la fricción: menos pasos innecesarios, más explicabilidad.
  • Velocidad de incorporación de nuevas señales (por ejemplo, detección de AiTM emergentes).

La tentación de medir “cantidad de correos bloqueados” es grande. Lo que interesa de verdad es cuántas oportunidades de abuso se desactivaron sin romper la productividad.

Lo que viene: detección multimodal y firmas de comportamiento sintético

Mirando a 2026 y más allá, veremos tres líneas de avance:

  1. Multimodalidad real. La defensa evaluará texto, audio, video e interacción como un solo evento. Una videollamada “convincente” puede delatarse por su patrón de latencia, microerrores de sincronía y discrepancias con la voz histórica del ejecutivo. El modelo no decide por “intuición estética”, decide por huellas cuantificables.
  2. Modelos de grafos a escala. La relación entre dominios, certificados, proveedores, herramientas de marketing y patrones de infraestructura permite identificar “familias” de ataque con rapidez. Si un dominio de una familia entra, se avisa al resto de los nodos expuestos.
  3. Firmas de comportamiento sintético. Igual que en detección de bots, la defensa generará “huellas delatoras” de contenido producido por modelos, no por su estilo literario, sino por regularidades de construcción que persisten incluso tras la edición humana. No es infalible, pero reduce superficie.

En paralelo, seguirá la carrera adversaria: modelos del atacante que entrenan con detectores defensivos para evadirlos, y detectores que se robustecen con ejemplos generados para anticipar nuevas variantes. Es el juego del gato y el ratón, pero en tiempo de cómputo.

Recomendaciones concretas para organizaciones en 2026

Aterrizando todo lo anterior, un plan de acción pragmático:

  1. Endurecer la identidad. Adoptar MFA resistente a phishing (passkeys o llaves físicas) en cuentas críticas, con políticas de riesgo adaptativo. Sin identidad fuerte, ninguna detección alcanza.
  2. Implementar análisis semántico y de comportamiento en correo y navegación, con aislamiento de enlaces por defecto cuando la confianza sea dudosa. Ajustar umbrales por área: finanzas y compras merecen protección agresiva y menor tolerancia al riesgo.
  3. Orquestar detección y respuesta. Integrar señales de correo, DNS, EDR y CASB en el SIEM/SOAR. Preparar playbooks para campañas masivas y spear phishing ejecutivo. Automatizar listas de bloqueo y notificaciones.
  4. Entrenar con realismo. Simulaciones que incluyan correo, chat, llamadas y video. Medir reporte temprano, no burla del usuario. Reforzar “hábitos de pausa”: ante urgencias financieras, siempre verificar por un canal distinto.
  5. Formalizar controles para operaciones sensibles. Palabras de control, doble vía, límites de monto, ventanas temporales de aprobación. Y la regla de oro: ninguna transferencia se ordena solo por videollamada.
  6. Cuidar la privacidad y la cultura. Recoger solo las señales necesarias, explicar por qué y cómo se usan, y ofrecer claro proceso de reclamo por falsos positivos. La colaboración del usuario es un activo de seguridad.
  7. Auditar y mejorar continuamente. Evaluaciones de robustez de modelos, pruebas adversarias, revisiones de sesgo y efectividad. La IA defensiva no es “instalar y olvidar”.

Estas acciones no son teóricas. Son los cimientos para disminuir costos de incidentes y evitar crisis reputacionales o financieras. En un entorno donde la ingeniería social ya es vector en la mayoría de brechas, retrasar estas decisiones equivale a dejar la puerta entreabierta.

Qué debe saber cualquier persona usuaria

Para cerrar esta parte práctica, dos recordatorios claros y memorables:

  • Si algo pide apuro, dinero o credenciales, verificá por otro canal antes de actuar.
  • Si un enlace te parece legítimo pero nació hoy, no le regales tu sesión: abrilo en un entorno seguro o pedí el documento por la vía habitual.

Es simple y funciona. La IA ayuda, pero la pausa de diez segundos puede salvar una empresa.

La seguridad como alianza entre humanos y modelos

La ciberseguridad de 2026 no va a decidirse en listas negras ni en avisos rojos que nadie lee. Va a definirse en la coordinación afinada de modelos que ven lo que los humanos no ven, con personas que entienden por qué los modelos dicen lo que dicen. La inteligencia artificial ha convertido el phishing en un producto escalable y convincente. Eso parece desolador, pero también ha permitido a la defensa mirar el contenido y el contexto con una precisión que la vista humana no alcanza. Cuando esas capacidades se orquestan, las campañas masivas pierden efectividad y las puntuales encuentran procedimientos que las frenan.

La verdadera frontera ya no es técnica en el sentido clásico, es socio-técnica: ¿podemos diseñar sistemas que protejan sin obstaculizar, que adviertan sin abrumar, que aprendan sin invadir? La respuesta depende menos de tener “el mejor modelo” y más de integrarlo con buen criterio. La detección de phishing con IA definirá la ciberseguridad en 2026 porque sintetiza ese desafío: leer lenguaje, conocer a la organización, entender su ritmo, aislar lo peligroso y explicar de forma útil. Cuando esa alianza funciona, el engaño pierde su ventaja. Y aunque la carrera adversaria seguirá, la confianza deja de ser un acto de fe para convertirse en un proceso verificable.

En un mundo donde la persuasión puede ser sintética y el rostro en pantalla puede no existir, la seguridad se vuelve la práctica de hacer preguntas correctas: ¿quién sos, qué querés, a través de qué camino? La IA nos da mejores ojos. A nosotros nos toca mantener el buen juicio.

Referencias

Anti-Phishing Working Group. Phishing Activity Trends Report, Q4 2024. 2025.
(docs.apwg.org)

IBM Security y Ponemon Institute. Cost of a Data Breach Report 2025. IBM, 2025.
(IBM)

Verizon. 2024 Data Breach Investigations Report, Executive Summary. Verizon, 2024.
(Verizon)

CybelAngel. AI-Powered Phishing is on the Rise [What to Do?]. 2025.
(Financial Times)

Consejo y Comisión Europea. NIS2 Directive: Securing Network and Information Systems. 2024.
(digital-strategy.ec.europa.eu)

Axios. Data breach recovery has gotten more expensive. 2024.
(Axios)

The Guardian. Company worker in Hong Kong pays out £20m in deepfake video call scam. 2024.
(The Guardian)

PhishGrid. Artificial Intelligence and Machine Learning in Phishing Detection and Prevention – 2025. 2025.
(apwg.org)

Publicaciones Recientes

ChatGPT Image 15 oct 2025, 02_50_09

Extinción o despegue: los escenarios de IA según la Fed de Dallas

El artículo del Federal Reserve Bank of Dallas, de junio de 2025, “Advances in AI will boost productivity, living sta
Leer Más
3339bb68-0021-4526-976d-b40765fb726f

Los modelos de IA revelan un sesgo arraigado por la escritura humana

En las profundidades de un laboratorio digital en Princeton, un relato breve sobre un altercado en un autobús se transf
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí