Advierten que la Inteligencia Artificial fortalecerá los ciberataques para los próximos dos años

Un comunicado lanzado por el Centro Nacional de Seguridad Cibernética (NCSC) del Reino Unido advirtió que las herramientas de IA tendrán un impacto adverso a corto plazo en el marco de los ataques cibernéticos.

La agencia avisa que los ciberdelincuentes ya utilizan la inteligencia artificial para fines maliciosos, y se espera que este fenómeno empeore en los próximos dos años, lo que permitirá perpetuar ciberataques más robustos, aumentando la gravedad de los incidentes de seguridad.

El NCSC cree que la IA permitirá a los actores maliciosos, especialmente inexpertos o poco calificados, puedan realizar ataques más efectivos y personalizados que de otro modo requerirían un mayor tiempo, conocimiento técnico y esfuerzo operativo a nivel infraestructura.

Los algoritmos avanzados de IA pueden explotar vulnerabilidades para adentrarse en los sistemas (Foto: Freepik)

Si bien algunos modelos de IA, como lo son ChatGPT o Bing Chat se niegan a brindar información maliciosa a los usuarios, el surgimiento y comercialización de servicios especializados de IA generativa diseñados específicamente para proceder con actividades delictivas puede considerarse una complicación de alta gravedad.

Esto muestra como la tecnología de inteligencia artificial ya ha escapado de los límites de los marcos controlados y seguros, volviéndose accesible para el ecosistema criminal más amplio.

«Se espera que esta tendencia continué hasta 2025 y más allá», destaca el MCSC en su informe de evaluación de amenazas.

Otros puntos clave del reporte del NCSC señala el aumento en el reconocimiento y ataques de ingeniería social planteados con la IA, el crecimiento en la mercantilización de las capacidades de la inteligencia artificial con un mayor acceso a herramientas avanzadas y el ingreso de ciberdelincuentes novatos de una forma más accesible.

Las organizaciones deben capacitar a su personal para hacerle frente a esta problemática. (Foto: Freepik)

«La IA tiene el potencial de generar software maliciosos que podría evadir la detección de los filtros de seguridad actuales. A pesar de esto, las áreas actuales continuarán confiando en la experiencia humana, lo que significa que cualquier método se limitará a los actores de amenazas existentes que ya son capaces», explica el NCSC.

En definitiva, el aumento en el uso de la IA generativa y los modelos de lenguajes para fines malintencionados harán la labor mucho más difícil para todos, lo que significa que los trabajos para mejorar la seguridad preventiva y la concienciación ante la ingeniería social y el phishing deberán crecer exponencialmente para hacerle frente a esta nueva era de los ciberataques.