OpenAI confirma el uso de ChatGPT para crear malware

Fue anunciado por la compañía luego de interrumpir más de 20 operaciones con fines malintencionados que abusaban de esta herramienta de inteligencia artificial para diseñar software malicioso.

El informe, que primeramente fue reportado por Proofpoint en Abril, constituye la primera confirmación oficial de herramientas de IA generativas que se utilizan para mejorar las operaciones de ataques cibernéticos.

El abanico de posibilidades de uso de ChatGPT con fines maliciosos incluye la depuración y desarrollo de malware, difundir información errónea, evadir la detección y realizar ataques de phishing.

Principalmente se centra en la utilización de la IA para generar mensajes personalizados y destinados a una organización en concreto, lo que muchas veces incluye la categoría de Spear Phishing, es decir, la modalidad de phishing aplicada a un objetivo en específico. De este modo, la probabilidad de que la víctima caiga en la trampa aumenta considerablemente.

ChatGPT cuenta con 180 millones de usuarios activos mensualmente

Tras la detección por parte de la compañía de OpenAI, se decidió bloquear todas las cuentas utilizadas por los actores maliciosos, y los indicadores de compromiso asociados, incluidas las direcciones IP, se han compartido con investigadores para desarrollar una posterior conclusión.

Aunque ninguno de los casos descritos anteriormente brinda a los ciberdelincuentes nuevas capacidades en el desarrollo de malware, constituyen una prueba de que las herramientas de inteligencia artificial generativas pueden hacer que las operaciones cibercriminales sean más eficientes para los atacantes poco calificados, ayudándolos en todas las etapas, desde la planificación hasta la ejecución.

Hace apenas unos días, la empresa fundada por Sam Altman difundió un reporte acerca de los beneficios y perjuicios de las herramientas de inteligencia artificial, incluyéndose justamente en el último apartado la posibilidad de realizar ataques maliciosos con la ayuda de la IA.