Como cada comienzo de año, 2024 viene cargado de nuevos propósitos, retos, tendencias, y para el mundo de la ciberseguridad, amenazas a las que enfrentarse. En este artículo, Jay Coley, Senior Security Architect, EMEA en Fastly, nos comparte sus 3 predicciones de ciberseguridad para el sector cara a este 2024 que acaba de comenzar.
La relación de los profesionales de ciberseguridad con la IA seguirá siendo conflictiva
La IA puede ser a la vez un reto y una gran herramienta para los equipos de ciberseguridad. La IA Generativa será una prioridad presupuestaria para el 50% de los profesionales de la seguridad en los próximos dos años. Sobre todo, vemos la inversión orientada a la generación de modelos de entrenamiento y el análisis/datos en tiempo real para mejorar la posición global de seguridad de una organización.
Sin embargo, su uso con fines maliciosos también será un problema de seguridad. La ingeniería social, la generación y ampliación de ataques o el uso de datos incorrectos o maliciosos, a medida que la IA aprende, son posibilidades para las que las empresas que deseen utilizar la IA tendrán que formar a sus equipos. Y la formación no se limita a su uso efectivo, los equipos también necesitan saber cómo auditarlas y probarlas para detectar vulnerabilidades.
La brecha de competencias en TI empeorará
Espero que el déficit de competencias en TI empeore de cara al nuevo año, pero la IA ofrecerá soluciones. Nuestra reciente investigación reveló que más de un tercio de los profesionales de la ciberseguridad (36%) cree que los nuevos talentos que se incorporan al sector no poseen las habilidades necesarias para tener éxito. Esta situación se ve agravada por el temor de casi un tercio de los profesionales de la seguridad (27%) a que la falta de conocimientos técnicos pertinentes en sus organizaciones sea uno de los factores que impulsen las amenazas a la seguridad en los próximos doce meses.
Es posible que la IA pueda mitigar algunos de los efectos de la brecha de habilidades en tecnologías de la información en 2024. Aunque estos sistemas deben supervisarse, probarse y auditarse, pueden ser muy beneficiosos para las organizaciones en términos de capacitación (con el fin de reducir el déficit de competencias) y operaciones. Nuestra encuesta reveló que la implantación de programas de formación creados por IA Generativa será cada vez más frecuente en el sector. De hecho, el 36% de los profesionales de seguridad predicen que la IA Generativa les permitirá formar a sus colegas de manera más eficaz en los fundamentos de la ciberseguridad. Dicho esto, existe el peligro de que las empresas confíen demasiado en estas herramientas durante el próximo año. Las organizaciones deben recurrir siempre a las personas para suplir cualquier brecha de IA y no dejar que ésta se convierta en un único punto de fallo en una organización de seguridad.
Los equipos encontrarán formas de aliviar la carga de trabajo
Hubo algunas tendencias positivas en 2023 que indican que los equipos de ciberseguridad están buscando formas de reasignar su tiempo y recursos. A medida que los presupuestos se ajustan y las amenazas crecen, los Servicios de Seguridad Gestionados (MSS) son un ejemplo de solución que puede aliviar la carga de trabajo de los equipos internos, que podrían estar aportando valor en otro lugar. El 30% de las empresas han empezado a invertir en MSS en el último año, lo que la convierte en la cuarta prioridad de inversión y una que esperamos siga creciendo a medida que los expertos en seguridad busquen aliviar su carga de trabajo en seguridad.
Nuevamente, la IA tendrá un papel que desempeñar aquí. Parte de la razón por la que el 77% de los profesionales de seguridad sienten que su impacto será positivo a largo plazo es que las tareas automatizadas reducen la carga de trabajo. Generar informes, hacer predicciones y procesar datos de manera más eficiente son solo algunas de las formas en que la adopción cuidadosa de la IA hará que 2024 sea un año de menos presión y mayor productividad para muchos equipos de seguridad.
Fuente: cybersecuritynews.es
No hay comentarios.:
Publicar un comentario