Según el Reino Unido, la IA reforzará el ransomware en los próximos dos años

El Centro Nacional de Ciberseguridad del Reino Unido (NCSC) advierte de que las herramientas de inteligencia artificial (IA) tendrán un impacto negativo a corto plazo en la ciberseguridad, contribuyendo a una escalada de la amenaza del ransomware.

El organismo afirma que los ciberdelincuentes ya están utilizando la IA para diversos fines y que se espera que el fenómeno empeore en los próximos dos años, contribuyendo a un aumento del volumen y la gravedad de los ciberataques.

El NCSC cree que la IA permitirá a los actores de amenazas sin experiencia, a los hackers a sueldo y a los hacktivistas poco cualificados llevar a cabo ataques más eficaces y personalizados que, de otro modo, requerirían mucho tiempo, conocimientos técnicos y esfuerzo operativo.

La mayoría de las grandes plataformas de modelos de aprendizaje (LLM) disponibles, como ChatGPT y Bing Chat, cuentan con protecciones que impiden que la plataforma cree contenido malicioso.

Sin embargo, el NCSC advierte de la existencia de ciberdelincuentes que diseñan y comercializan servicios especializados de IA generativa diseñados específicamente para apoyar actividades delictivas. Entre los ejemplos se incluye WormGPT, un servicio LLM de pago que permite a los actores de amenazas generar contenido malicioso, incluyendo malware y señuelos de phishing.

Esto indica que la tecnología ya ha escapado de los confines de los entornos controlados y seguros, haciéndose accesible en el ecosistema delictivo más amplio.

«Los actores de amenazas, incluidos los actores de ransomware, ya están utilizando la IA para aumentar la eficacia y la eficiencia de aspectos de las operaciones cibernéticas, como el reconocimiento, el phishing y el cifrado», advierte el NCSC en una evaluación de amenazas separada.

«Lo más probable es que esta tendencia continúe hasta 2025 y más allá».

El informe señala que es probable que el papel de la IA en el panorama de los riesgos cibernéticos sea evolutivo, mejorando las amenazas existentes en lugar de transformarlas.

Los puntos clave de la evaluación del NCSC incluyen:

  • Es probable que la IA intensifique los ciberataques en los próximos dos años, sobre todo a medida que evolucionen las tácticas actuales.
  • En la actualidad, tanto los actores cualificados como los no cualificados de las ciberamenazas, incluidas las entidades estatales y no estatales, utilizan la IA.
  • La IA mejora el reconocimiento y la ingeniería social, haciéndolos más eficaces y difíciles de detectar.
  • El uso de IA sofisticada en operaciones cibernéticas se limitará principalmente a actores con acceso a datos, habilidades y recursos de calidad hasta 2025.
  • La IA hará que los ciberataques contra el Reino Unido sean más impactantes al permitir un análisis de datos y un entrenamiento de modelos de IA más rápidos y eficaces.
  • La IA reduce las barreras de entrada para los ciberdelincuentes novatos, contribuyendo a la amenaza global del ransomware.
  • Para 2025, es probable que la mercantilización de las capacidades de IA amplíe el acceso de los ciberdelincuentes y los agentes estatales a herramientas avanzadas.

La siguiente tabla resume los efectos que se espera que tenga la IA en áreas de amenaza específicas para tres niveles de habilidad.

Para las APT sofisticadas, el NCSC cree que la IA les facilitará y acelerará la generación de malware personalizado y evasivo.

«La IA tiene el potencial de generar malware que podría eludir la detección de los filtros de seguridad actuales, pero solo si se entrena con datos de exploits de alta calidad», afirma el NCSC.

«Es totalmente posible que los estados altamente capaces tengan repositorios de malware lo suficientemente grandes como para entrenar eficazmente un modelo de IA para este fin.

Los hackers de nivel medio verán beneficios principalmente en el reconocimiento, la ingeniería social y la minería de datos, mientras que los actores menos capacitados verán mejoras en todas las áreas, excepto en el movimiento lateral, que sigue siendo un desafío».

«Se espera que la IA contribuya al desarrollo de malware y exploits, al escaneo de vulnerabilidades y al movimiento lateral haciendo que las técnicas existentes sean más efectivas», reza el análisis.

«Sin embargo, a corto plazo, estas áreas seguirán dependiendo de la experiencia humana, lo que significa que cualquier mejora limitada estará muy probablemente restringida a los actores de amenazas que ya son capaces de hacerlo».

En general, el NCSC advierte de que la IA generativa y los grandes modelos lingüísticos harán que identificar los intentos de phishing, spoofing e ingeniería social sea muy difícil para cualquiera, independientemente de su experiencia y nivel de conocimientos.