Estrategia e información

Predicciones 2025: la IA como herramienta y objetivo de ciberseguridad

Aunque la inteligencia artificial (IA) (aún) es el tema tecnológico más candente, no es lo principal para la seguridad empresarial en 2025. La IA avanzada abrirá nuevos vectores de ataque y también ofrecerá nuevas herramientas para proteger los datos de una organización. Sin embargo, el desafío subyacente es la enorme cantidad de datos a los que se enfrentan los equipos de ciberseguridad, que trabajan demasiado, al tratar de responder preguntas básicas como “¿Nos están atacando?”

En “Predicciones sobre datos e IA en 2025”, me uno a una docena de expertos y líderes para hablar de los cambios que la IA en particular impulsará en los próximos años. Desde el punto de vista de la seguridad, hay buenas y malas noticias. La IA contribuye al problema —más datos que hay que proteger, más superficie de ataque— y también es una posible oportunidad, ya que proporciona herramientas para gestionar cantidades de datos que las personas no pueden administrar por sí solas. Entre otras cosas, nuestro informe señala cuatro imperativos de la ciberseguridad a medida que avanza esta era de la IA.

Responder a una sobrecarga de datos con un data lake de seguridad

Los profesionales de la seguridad tienen que mejorar continuamente su estrategia para asegurarse de que, a partir de todos los datos a su disposición, utilizan las entradas correctas para identificar vulnerabilidades e incidentes. El data lake de seguridad seguirá ganando popularidad como una forma rentable de agrupar grandes cantidades de datos de diversas fuentes. En el data lake de seguridad, los equipos pueden aplicar el aprendizaje automático (machine learning, ML) y las analíticas avanzadas. Además, al hacer que sea más asequible conservar más datos durante más tiempo, los equipos pueden ejecutar mejores estudios forenses. En comparación con las herramientas tradicionales de gestión de incidentes y eventos de seguridad, los data lakes de seguridad suelen ser más flexibles, escalables y rentables. Las tecnologías de administración de eventos e información de seguridad (SIEM) también son más adecuadas para las soluciones de IA, y por todas esas razones esperamos que el data lake de seguridad reemplace en última instancia a las SIEM.

La IA como vector de ataque

El año pasado publicamos un marco de seguridad de IA que identifica 20 vectores de ataque contra large language models (LLM) y sistemas de IA generativa. En él, analizamos tres capas de IA que pueden convertirse en una superficie de ataque. Ya comentamos la primera, la plataforma central, en el informe de predicciones del año pasado. Ahí observamos que la automatización evita errores de configuración a nivel de producción, y los entornos de desarrollo se convierten en un objetivo comparativamente más vulnerable. Sin embargo, en este momento esa infraestructura también se está consolidando bastante bien.

Esperamos que, a lo largo de este año, la siguiente capa, de operación de modelos, se convierta en un objetivo más común. Los profesionales de la seguridad deberán plantearse cómo se entrena inicialmente el modelo y cómo incorpora nuevos datos en la producción. Habrá que analizar el ciclo de vida de todo el modelo, así como el ciclo de vida de los datos que se incorporan. Los equipos de seguridad tendrán que estandarizar sus enfoques para las nuevas tecnologías de IA a fin de asegurarse de que son tan seguras como su infraestructura empresarial general.

Una tercera capa de ataque, que esperamos que aumente más adelante, interactúa directamente con la IA para engañarla y que revele datos confidenciales que quizás no deberían haberse incorporado al modelo. Por eso, estamos observando la práctica emergente de gestionar la posición de seguridad de los datos, que trata de proporcionar una mejor visibilidad de la ubicación, los usos y la seguridad de los datos en toda la empresa.

La IA como facilitadora de seguridad

Además, la IA proporcionará nuevas herramientas para proteger la empresa, y los equipos de seguridad ya están experimentando con posibilidades iniciales. Un LLM con una interfaz de IA generativa permite formular preguntas en lenguaje natural y humano sobre la posición general de seguridad o sobre alertas y patrones específicos. Esta experiencia de asistente de seguridad madurará y se convertirá en un asistente más eficaz para los equipos de seguridad que siempre carecen de personal suficiente. En particular, las herramientas basadas en IA ayudarán a más profesionales de la seguridad júnior a convertir ideas rápidamente en consultas y análisis. Esto reducirá el tiempo que se tarda en aprender lógicas de consulta complejas y en obtener respuestas a cuestiones de seguridad inmediatas.

En particular, la capacidad de los sistemas de IA para resumir los incidentes de seguridad va a suponer un gran avance. Imagina que la IA te dice: “Vi un patrón extraño en el movimiento de datos: esta cantidad de datos de este tipo normalmente no se transfiere en este momento del día desde esta ubicación”. Esa descripción detallada es mucho más útil que una notificación con el mensaje: “Revisa los registros de VPN, los registros de almacenamiento y los registros de correo electrónico, y conecta tú los puntos”. Hoy estamos más o menos en este punto.

La IA avanzada ayudará a los equipos de seguridad tanto a comprender las anomalías a medida que se detectan como a realizar análisis forenses después de un evento para comprender completamente qué sucedió y cómo prevenir eventos similares. En última instancia, se utilizará no solo para analizar incidentes, sino también para gestionar la posición general de seguridad de los datos, ya que la IA puede analizar sistemas mucho más complejos que las herramientas existentes o los operadores humanos.

Mantener involucradas a las personas

Ya es habitual que las herramientas de seguridad automaticen las respuestas a determinados incidentes, desactivando así un ataque con más rapidez que una persona. En teoría, la IA generativa podría tomar decisiones más complejas y tomar medidas más amplias e integrales. Pero eso no sucederá durante bastante tiempo. Las herramientas de ciberseguridad de la IA generativa requerirán la intervención humana para tomar decisiones finales, especialmente cuando se deban considerar cuestiones éticas y factores de riesgo más complejos.

En total, diría que el futuro para los equipos de ciberseguridad parece brillante. Aún queda trabajo por hacer y hay más datos para proteger, pero eso siempre es así. A medida que se desarrollan estándares y nuevos enfoques para proteger mejor las empresas basadas en IA, lo más emocionante son las nuevas herramientas, las nuevas formas de acercar nuestros datos y nuestra posición en materia de seguridad.

Lee “Predicciones sobre datos e IA en 2025” para obtener más información sobre ciberseguridad, desarrollo de software e infraestructura de datos en la era de la IA. 

Compartir artículo

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Comienza tu pruebagratuita de 30 días

Prueba Snowflake gratis durante 30 días y experimenta el Data Cloud, que acaba con la complejidad, el coste y las restricciones de otras soluciones.