Ciberseguridad

Solo el 35% de los profesionales de ciberseguridad participan en la creación de políticas sobre inteligencia artificial

Federica Estrella | Sábado 02 de noviembre de 2024
Un reciente informe titulado State of Cybersecurity 2024, elaborado por ISACA, revela que solo el 35% de los profesionales de ciberseguridad están involucrados en la creación de políticas que regulan el uso de la inteligencia artificial (IA) en sus organizaciones.

Aproximadamente el 45% de estos expertos no participa en absoluto en el desarrollo o implementación de soluciones de IA. Este hallazgo pone de manifiesto una desconexión significativa entre la tecnología emergente y su gestión adecuada en el ámbito de la ciberseguridad.

El estudio destaca que la IA se utiliza principalmente para automatizar la detección y respuesta ante amenazas, representando un 28% de su aplicación. Otras áreas donde se aplica incluyen la seguridad de punto final (27%), la automatización de tareas rutinarias (24%) y la detección de fraude (13%).

"Los responsables de ciberseguridad no pueden centrarse únicamente en el rol de la IA en las operaciones de seguridad"

En base a esto, Jon Brandt, director de Prácticas Profesionales e Innovación de ISACA, ha dicho que "dadas las dificultades a la hora de encontrar personal de ciberseguridad y el aumento de la presión sobre los profesionales que genera el complejo panorama de amenazas, ciertamente merece la pena explorar el potencial de la IA a la hora de automatizar y agilizar ciertas tareas y aligerar las cargas de trabajo. Sin embargo, los responsables de ciberseguridad no pueden centrarse únicamente en el rol de la IA en las operaciones de seguridad. Resulta imperativo que los profesionales de seguridad participen en el desarrollo, introducción e implementación de cualquier solución de IA en sus organizaciones, incluyendo productos existentes que más adelante se habiliten para capacidades de IA"

Nuevas Iniciativas y Recursos

ISACA ha lanzado varios recursos para ayudar a los profesionales a adaptarse a esta tecnología en constante evolución. Uno de los documentos más relevantes es el que aborda la Ley de IA de la Unión Europea, que establece requisitos específicos para ciertos sistemas de IA y que entrará en vigor en agosto de 2026. Este documento sugiere que las organizaciones deben realizar auditorías y adaptar sus políticas de ciberseguridad para cumplir con estas nuevas regulaciones.

Además, ISACA ha publicado un recurso sobre la verificación en la era de las falsificaciones deepfake, advirtiendo sobre los riesgos y beneficios de la autenticación adaptativa basada en IA. Aunque esta tecnología puede mejorar la seguridad, también es susceptible a manipulaciones y sesgos, lo que plantea importantes cuestiones éticas y de privacidad.

Para abordar el creciente desafío de la IA en ciberseguridad, ISACA ha introducido programas de formación y certificación que cubren desde los fundamentos de la IA hasta aspectos éticos y de auditoría. Estos cursos están diseñados para equipar a los profesionales con las habilidades necesarias para enfrentar un panorama tecnológico en rápida evolución. La futura certificación de analista de operaciones de ciberseguridad, que se lanzará en el primer trimestre de 2025, se centrará en las capacidades técnicas esenciales para evaluar amenazas y recomendar contramedidas efectivas.

La integración de la inteligencia artificial en la ciberseguridad presenta tanto desafíos como oportunidades. A medida que las organizaciones buscan aprovechar el potencial de la IA, es crucial que los profesionales de ciberseguridad estén involucrados en cada etapa del proceso, desde el desarrollo hasta la implementación, para garantizar un enfoque seguro y efectivo en la protección de los ecosistemas digitales.

TEMAS RELACIONADOS:


Noticias relacionadas