Los límites de la IA en ciberseguridad

El uso de la Inteligencia Artificial (IA) en la infraestructura de ciberseguridad de las empresas muchas veces no está estratégicamente empleada en detección y prevención de riesgos. Debido a que esto, en la mayoría de los casos, requiere una inversión costosa y debe ser cuidadosamente planificada para ser útil. Además, aún existe una brecha de los analistas de ciberseguridad calificados para evaluar este tipo de datos, lo que a su vez, eleva el costo de los existentes. 

Algunas organizaciones aplicaban la IA en una ciberseguridad dispersa y no unificada, haciendo que no se cumplan expectativas de eficacia ante el creciente número de amenazas. Sobre todo, cuando las organizaciones intentan estar al día con este tipo de tecnología, pero a través de cientos de fuentes de datos que resultan complejos, sobre todo cuando las amenazas sofisticadas a menudo intentan parecerse a la actividad normal de los usuarios. Además, los datos de cada herramienta de seguridad pueden tomar diferentes formas y deben normalizarse antes de que puedan usarse para entrenar un sistema con IA.

Independientemente de la industria y el caso de uso, la IA aprende de los datos, por lo tanto, debe entrenarse con datos para que pueda comenzar a aprender qué es o no una anomalía. Eso es lo complejo del problema de seguridad, los datos de cada empresa se ven muchas veces distintos por las diferentes herramientas digitales y patrones de comportamiento. 

IA en ciberseguridad

“Hoy en día, muchas herramientas de ciberseguridad simplemente no se enfocan en la normalización de datos porque tienden a estar aisladas en puntos débiles específicos en la infraestructura general. No existe un conjunto integral de datos de entrenamiento para la ciberseguridad. Normalizar los datos para que sean útiles para un motor de IA, resulta un gran desafío para las empresas cuando desconocen herramientas especializadas en tecnología de ciberinteligencia integral” mencionó Daniel González, Country Manager de Stellar Cyber México.

Para ser efectivo, un programa de seguridad impulsado por IA debe poder recopilar datos de todas las herramientas de seguridad y fuentes de amenazas disponibles, y luego normalizar esos datos para que sean realmente útiles para entrenar el motor de IA.