La rápida adopción de las herramientas de inteligencia artificial generativa está cambiando nuestro día a día y se ha transformado en uno de los mercados con más crecimiento en los últimos años. En los Estados Unidos, por ejemplo, se estima que esta industria contribuirá en 2030 en un 21% al producto bruto interno de ese país, lo que demuestra su impacto en la economía mundial. Además, se proyecta un crecimiento del 36% en el uso de estas tecnologías a nivel mundial en los próximos seis años.
La facilidad y accesibilidad de la inteligencia artificial para el usuario final, como para su uso en entornos laborales de los más variados, generó la necesidad de adaptar también las estrategias de ciberdefensa. Se hace necesario imponer a los cambios la rapidez y celeridad que le imprime este crecimiento acelerado.
El año pasado advertíamos sobre los usos de, por ejemplo, el chatbot de OpenIA, ChatGPT, para facilitar la escritura de malware, o la generación de campañas de phishing más sofisticadas para criminales con poca experiencia. Recientemente, se ha confirmado este uso, cuando la propia OpenIA detectó y desarticuló 20 ciberataques que habían utilizado su ChatGPT, para desarrollo y debugging de malware, evasión de detecciones, o en ataques de spearphishing, entre otros.
Desde el lado de la ciberseguridad también se hace uso de estas tecnologías, para estar al frente y adelantarse a las amenazas y su evolución constante. Desde el análisis de malware hasta la detección y automatización de respuestas, la IA es parte integral en la mejora de las estrategias de defensa.
En el contexto de un nuevo Antimalware Day―una iniciativa de ESET que conmemora cada 3 de noviembre para destacar el trabajo de quienes se dedican a la ciberseguridad―, analizaremos los desafíos más importantes que impone el uso de la inteligencia artificial, cómo es utilizada por el cibercrimen, y cómo esta mejora la eficiencia de las estrategias de ciberseguridad.
Usos maliciosos de la IA
Aunque se evidenció luego de la detección por parte de OpenIA de campañas que se valieron de ChatGPT para potenciar sus ataques, el uso de la inteligencia artificial por parte de actores maliciosos es una preocupación que fue aumentando a medida que se desarrolló este tipo de tecnología de machine learning e inteligencia artificial. A principios de año, el FBI lanzó una alerta especial por el aumento de este tipo de amenazas con IA.
Desde la generación de campañas de phishing más verosímiles —redacción de mensajes y comunicaciones impersonando distintas entidades e individuos— hasta el scraping automatizado para recabar datos públicos (con fines maliciosos), son algunas de las formas en que desde el inicio el cibercrimen aprovecha las facilidades de la IA.
La ingeniería social se convierte, así en una amenaza más optimizada, por ejemplo, con la posibilidad que ofrece la IA para imitar estilos de escritura personales, o incluso incorporar las deepfakes, que evolucionaron en su fidelidad en solo meses.
Según el Centro Nacional de Ciberseguridad del Reino Unido (NCSC), estos usos maliciosos agravarán el impacto de el amenazas de como el ransomware y aumentarán el volumen e impacto de los ciberataques en los próximos dos años.
Beneficios de la IA en ciberseguridad
La IA también aporta beneficios significativos para la ciberseguridad, mejorando la capacidad de las organizaciones para defenderse de las amenazas actuales y la previsión de las que vendrán.
Algunos de los usos en ciberseguridad más destacados son:
Mejora del análisis de amenazas en tiempo real: Los asistentes GenIA (IA Generativa) permiten el análisis de grandes volúmenes de datos en tiempo real, instaurando algoritmos de aprendizaje automático que identifican amenazas, detectan comportamientos sospechosos, priorizan alertas y monitorean el tráfico de red.
Reducción de errores de configuración: Mediante asistentes IA que podrían eliminar errores de configuración que podrían exponer a ataques.
Automatización de respuestas: Los sistemas impulsados por IA logran automatizar las respuestas ante brechas de seguridad, como bloquear IP maliciosas y aislar secciones de la red, reduciendo y eficientizando la respuesta ante incidentes.
Facilidad en el análisis de malware: La IA facilita el análisis de malware, permitiendo identificar el uso de TTPs más rápidamente.
Aumento de la productividad de los Centros de Operaciones de Seguridad (SOC, por sus siglas en inglés): La capacidad de análisis automatizados reducen los falsos positivos, lo que aliviana la carga de trabajo de los SOC al priorizar la respuesta ante las alertas legítimas.
Principales desafíos para las organizaciones
Uno de los mayores desafíos a los que se enfrentan las organizaciones, para hacerles frente a esta nueva era del cibercrimen, es la falta de personas especializadas en estas tecnologías dentro de los equipos de seguridad.
En vista del avance acelerado de estas tecnologías y de su uso por parte del cibercrimen, es crucial que las empresas y organismos, y sus equipos de respuesta, se mantengan actualizados y preparados para implementar medidas y políticas de seguridad que estén a la altura de las nuevas amenazas.
En este punto, y según datos del último informe de (ISC)², existe una demanda significativa de profesionales de ciberseguridad con habilidades en Machine Learning e Inteligencia Artificial. El informe muestra que el 90% de las organizaciones encuentra falencias en sus equipos de seguridad, y entre ellas, un tercio identifica como principal la falta de habilidades de IA.
Conclusión
La inteligencia artificial está revolucionando la ciberseguridad, haciendo más eficientes los análisis en tiempo real, la automatización de respuestas y la reducción de errores, lo que fortalece la defensa ante amenazas avanzadas.
Con IA, las organizaciones pueden anticiparse a ataques y mejorar la eficiencia de sus operaciones de seguridad. La adopción de estas tecnologías, junto con capacitación especializada, es esencial para asegurar la resiliencia digital en un entorno cada vez más complejo.