Una nueva investigación de Ciberseguridad en MIT Sloan y Safe Security examinó 2800 ataques de ransomware y descubrió que el 80 % de ellos estaban impulsados por inteligencia artificial. La IA se utiliza para crear malware, campañas de phishing e ingeniería social basada en deepfakes, como llamadas falsas de atención al cliente. Se emplean modelos de lenguaje extensos para generar código y contenido de phishing. También se utilizan herramientas de descifrado de contraseñas con IA, evasión de CAPTCHA y más.
“Las herramientas de ciberseguridad basadas en IA no son suficientes por sí solas”, advirtieron Michael Siegel et al. “Un enfoque proactivo y multicapa —que integre supervisión humana, marcos de gobernanza, simulaciones de amenazas basadas en IA e intercambio de inteligencia en tiempo real— es fundamental”.
Los 3 pilares de defensa de la IA que necesita toda organización #
Los investigadores sostienen que un enfoque integral para combatir las amenazas impulsadas por la IA consta de tres tipos de defensa, todos ellos esenciales:
-
Higiene de seguridad automatizada, que contempla código de software autorreparable, sistemas de parcheo automático, gestión continua de la superficie de ataque, arquitectura de confianza cero y redes de confianza autónomas. La automatización de estas tareas rutinarias reduce la carga de trabajo manual y refuerza la protección contra ataques dirigidos a las vulnerabilidades del sistema central.
-
Sistemas de defensa autónomos y engañosos, que utilizan análisis, aprendizaje automático y recopilación de datos en tiempo real para aprender de las amenazas, identificarlas y contrarrestarlas. Algunos ejemplos incluyen la defensa automatizada simultánea contra objetivos móviles y tácticas e información engañosas. Ambos tipos de sistemas permiten a los equipos adoptar un enfoque proactivo de defensa, en lugar de quedarse estancados en el modo reactivo.
-
Supervisión e informes mejorados que brindan a los ejecutivos información basada en datos en tiempo real. Por ejemplo, el análisis de riesgos automatizado utiliza IA para detectar amenazas emergentes y predecir cómo podrían afectar a una organización.
Qué significa esto hoy para la ciberseguridad #
En el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, por ejemplo, los investigadores han desarrollado un método de defensa llamado inteligencia artificial adversarial, que imita a los atacantes para probar las defensas de la red antes de que se produzcan ataques reales.
Pero aún está por verse cómo cambiará el eterno juego de golpear topos para los equipos de seguridad con la IA implementada regularmente tanto en ataques como empleada en defensa.
“En ciberseguridad, existen enormes posibilidades de que algo salga mal”, advirtió Siegel. “Protegerse en este nuevo entorno que avanza a la velocidad de la luz es un desafío, pero podemos aprender de nuestro trabajo previo. Muchos investigadores y productos ya abordan cuestiones de gestión, prevención, detección, respuesta y resiliencia”.
Un ejemplo de esa propuesta es que Siegel y sus colegas del MIT Sloan están investigando el papel que desempeña la IA generativa tanto en los ataques como en la defensa de los sistemas de control industrial.
Cita #
La investigación Rethinking the Cybersecurity Arms Race (Repensando la carrera armamentista en ciberseguridad), fue realizada por Siegel; Sander Zeijlemaker, afiliado de investigación de CAMS; Vidit Baxi, cofundador y director de seguridad de la información en Safe Security; y Sharavanan Raajah, investigador de amenazas en Safe Security.
- El artículo 80% of ransomware attacks now use artificial intelligence, con la firma de Zach Church en el sitio web de MIT Sloan
Contacto [Notaspampeanas](mailto: notaspampeanas@gmail.com)