|

Lo que AI puede y no puede descargar para los equipos de seguridad

La inteligencia artificial ha tomado por asalto el mundo de la seguridad, revolucionando la forma en que se realizan las tareas más mundanas y extraordinarias, pero… ¿Sirve para todo? Hay cosas que la IA puede hacer muy bien y otras que no. Ciertas tareas aún requieren el razonamiento cognitivo de un ser humano y la toma de decisiones críticas de un experto. Pero la IA ciertamente se ha ganado su lugar como una herramienta valiosa en el arsenal de ciberseguridad. La pregunta es: ¿de qué manera?

El poder de la IA en la seguridad

Lo que la IA es realmente buena es la consistencia. Con “todas” las funciones ejecutivas de un ser humano, no conoce retrasos, no se cansa y no comete errores inducidos por la fatiga. es una bestia Puede realizar la misma función, hasta la saciedad, sin contemplar su existencia ni caer presa de leves crisis existenciales. Simplemente puede funcionar.

Por lo tanto, aprovechar la IA para realizar todas esas tareas mundanas centradas en la seguridad (como escanear petabytes de datos para encontrar anomalías de comportamiento) funciona muy bien. Estos son trabajos que, posiblemente, ningún ser humano quiere, y la probabilidad de error humano influiría mucho en eso. 

Por esta razón, las máquinas impulsadas por IA se encuentran en la primera línea de la inteligencia de amenazas (esa capacidad XDR basada en el comportamiento mencionada anteriormente), detección de intrusiones (detectar una IP maliciosa entre tantos billones) y cualquier otra cosa que dependa de derivar el aprendizaje de un conjunto de datos imposiblemente grande.  

Sin embargo, en la era de la información, los conjuntos de datos imposiblemente grandes no son demasiado difíciles de conseguir. Por lo tanto, la inteligencia artificial se ha abierto camino en muchas pilas de seguridad. Como señala Forbes , más de las tres cuartas partes (76 %) de las organizaciones han priorizado la IA y el aprendizaje automático en sus presupuestos de TI. Una evaluación adicional de Blackberry revela que “la mayoría (82 %) de los tomadores de decisiones de TI planean invertir en ciberseguridad impulsada por IA en los próximos dos años, y casi la mitad (48 %) planea invertir antes de finales de 2023. ” Está claro que la influencia de la IA en la seguridad llegó para quedarse.

Pero el hecho de que la IA sea una estrella no significa que sea buena en todo. (Gracias a dios).

 

Donde la IA se queda corta

Cuando está en la sala de calderas y las tensiones son altas, hay momentos en los que desea que un experto experimentado vigile sus seis. En otras palabras, escenarios de alto riesgo y de decisión cerrada que requieren un pensamiento rápido, un buen juicio, una comprensión de lo que es mejor para la empresa y muchos matices. Esos no son los mejores momentos para tener un animatrónico molestamente lógico en el asiento del copiloto. Esos son tiempos para que los humanos sean, bueno, humanos. 

También existe la consideración de que debido a que la IA es realmente una herramienta para ser programada, puede caer en las manos equivocadas (o en las madrigueras de Internet) y resultar parcial, intolerante o discriminatoria y ofensiva. Y probablemente no le «importaría». Esta falta de moralidad (o señales sociales) es otro factor que traiciona las limitaciones de una herramienta que, por lo demás, es genial. 

En general, sigue existiendo una gran necesidad de supervisión e intervención humana en la toma de decisiones de IA. Deje que se vuelva loco, y es probable que regrese después de haber tirado todos los currículos de las mujeres a la basura . No genial Hay mucho trabajo por hacer para lijar los bordes ásperos, pero la IA funciona lo suficientemente bien por motivos de seguridad. De hecho, es brillante.

Mejores prácticas para integrar la IA en la seguridad

Sin embargo, se deben seguir algunas mejores prácticas para apreciar la brillantez total de un modelo de aprendizaje automático en ciberseguridad. Incluyen:

  • Incorporar un enfoque estratégico de la IA en la seguridad. Esto significa comprender cómo las herramientas de seguridad aprovechan la IA hoy y usar esas capacidades para su mejor ventaja. Esto incluye aprovechar la IA generativa para detectar amenazas cibernéticas y proteger los sistemas del riesgo de error humano. Cuanta más IA, menos participación humana y, por extensión, menos posibilidades de equivocarse en una tarea repetitiva. El uso estratégico de la IA significa emplearla para las tareas correctas (como la búsqueda y el análisis de amenazas) y mantenerla fuera de las tareas incorrectas (toma de decisiones críticas y decisiones de juicio). 
  • Colaboración entre equipos de seguridad y especialistas en IA para garantizar el uso ético y eficaz de la IA. Éste habla por sí mismo. La IA es una herramienta poderosa, y cuando se usa de manera nefasta, ese poder podría extenderse exponencialmente para causar daño. Si bien todos los que alguna vez se aburrieron de una tarea quieren tener en sus manos la IA, los expertos en seguridad y los especialistas en IA deben esforzarse para garantizar que las capacidades no se extiendan al raspado de información personal o al hurto de datos confidenciales. Eso es, después de todo, lo que la ciberseguridad está tratando de proteger.
  • Supervisión y evaluación continuas de los sistemas de IA para mejorar la precisión y evitar sesgos. Los ojos constantes deben estar en la creación en constante aprendizaje para garantizar que reciba las influencias correctas. Como se mostró, dados ejemplos negativos o sesgados, la IA (como era de esperar) aprendió a ser negativa y sesgada. Se deben hacer esfuerzos para garantizar que la entrada y la salida sean confiables, precisas y objetivas. Sin esta columna vertebral, los datos recopilados por IA no son de ayuda para las plataformas de seguridad que los emplean. 
  • Tener en cuenta la privacidad de los datos al usar IA. Otro escollo grave de la IA emergente es que no conoce límites. Está capacitado para acumular la mayor cantidad de información posible, y gran parte de esa información se mantiene bajo llave y candado de derechos de autor. Este es un tema interesante que se ha encontrado con desafortunada consternación en el mundo real. El jurado aún está deliberando , pero el principio permanece: si no desea que un humano lo haga, una IA (que responda a los humanos) tampoco debería hacerlo. Y cuando se trata de ciberseguridad, una herramienta de seguridad realmente no debería hacerlo. Sin embargo, ¿y si alguien lo programara de otra manera? Por esta razón, el Center for Cybersecurity Policy and Law generalmente requiere equipos de ciencia de datos para guiar el aprendizaje automático. 

Ejemplos del mundo real de IA en seguridad

Afortunadamente, muchas tecnologías de seguridad han logrado evitar los baches y aprovechar la IA en todo su valor. Y resulta que vale mucho. Ejemplos incluyen:

  • XDR: el enfoque «basado en el comportamiento» funciona de maravilla para detectar signos de actividad maliciosa que aún no están en la lista negra y no tienen una firma. A medida que las herramientas de detección tradicionales mejoraron, los ciberdelincuentes hicieron lo que mejor saben hacer y se adaptaron, doblando la esquina para lanzar franjas de exploits sin huellas dactilares nunca antes vistos que evadieron la detección de malware. Es posible que ya no tengan sus etiquetas de identificación, pero la IA puede aprovechar el aprendizaje automático para detectar cuándo su comportamiento se desvía de la norma y marcarlo cuando se vuelve peligroso. 
  • Señal a ruido: las herramientas impulsadas por IA de alta potencia pueden ingerir una gran cantidad de datos y ayudar a separar las señales del ruido. A veces, las plataformas bien intencionadas pueden admitir demasiados puntos de datos, lo que es tan infructuoso como no tener puntos de datos. La inteligencia artificial puede examinar esas franjas de alertas y detectar los patrones que las eliminarían como falsos positivos. 
  • Tareas que consumen mucho tiempo: las máquinas hacen lo que las máquinas hacen mejor, y eso es lo mismo, una y otra vez. La IA puede automatizar y orquestar las pequeñas cosas que hacen que la ciberseguridad sea efectiva (y repetitiva). La autonomización de áreas de su libro de estrategias de respuesta puede ahorrar tiempo y el poder de las personas en el futuro.
  • Tiempos de entrenamiento y respuesta: esta es quizás la implementación más clásica de la IA tal como la conocemos (popularmente): a través de ChatGPT. El modelo de IA generativa mejora día a día y es especialmente útil para escenarios en el trabajo donde las correcciones son sensibles al tiempo y hojear los manuales no tendría sentido. Tener una solución similar a GPT ayuda en el proceso de aprendizaje y proporciona información optimizada para que los trabajadores de seguridad cibernética exigidos puedan controlar rápidamente su entorno. En otras noticias, en un blog reciente, le pedimos a ChatGPT que nombrara sus riesgos de ciberseguridad y fue tan honesto como siempre . 

En ZeroFox, hemos estado desarrollando capacidades impulsadas por IA para ampliar la ciberseguridad externa tanto como sea necesario. Nuestra versión de IA generativa, FoxGPT, actúa como un multiplicador de fuerza de tipo XDR que identifica ataques maliciosos en grandes cantidades de datos a lo largo del tiempo. Como se revisó en un comunicado de prensa reciente , las capacidades de FoxGPT optimizarán los flujos de trabajo de los analistas de inteligencia «con la capacidad de analizar y contextualizar el contenido malicioso en línea, mejorando la capacidad de combatir la creciente sofisticación de los ciberdelincuentes».

Esto representa un paso significativo para nosotros y para las capacidades de ciberseguridad externa que brindamos. Esto lleva nuestra capacidad de detección de amenazas al siguiente nivel y nos permite proporcionar una plataforma de ciberseguridad externa aún más poderosa. 

Conclusión

Es un juego del gato y el ratón, siempre lo ha sido, y la IA es una herramienta utilizada por ambos lados. Los actores de amenazas mejoran su juego y la seguridad contraataca con una IA superpoderosa. Los actores de amenazas se lanzan con sus propias capacidades de IA (cuya realización completa probablemente no hayamos visto ), y comienza la segunda ronda. Y así sucesivamente, y así hasta la eternidad. Sin embargo, la mayoría de las predicciones del apocalipsis de la IA son puramente especulativas en este punto, y la inteligencia artificial todavía tiene mucho trabajo beneficioso que hacer en el ámbito de la ciberseguridad. De hecho, apenas está comenzando. 

Especialmente en lo que respecta a la ciberseguridad externa, la IA está lista para hacer un trabajo pesado. Al buscar millones de publicaciones y puntos de datos en sitios de redes sociales, puede recuperar información sobre qué publicaciones parecen haber sido pirateadas, qué cuentas parecen suplantadas y qué pistas clandestinas podrían ser las culpables. Con tantos datos para buscar en línea, mantener una presencia comercial en línea auditada puede ser casi imposible para las organizaciones sin acceso a las capacidades de IA. 

ZeroFox es el primer proveedor externo unificado de ciberseguridad y estamos orgullosos de confiar en nuestro equipo de expertos analistas de seguridad y la mejor tecnología de su clase para proteger los activos externos de una empresa. Hemos eliminado casi un cuarto de millón de sitios y piezas de contenido comprometidos solo en el último año, y seguimos haciendo de la ciberseguridad externa nuestra pasión y prioridad. La IA no es nada nuevo para nosotros: hemos estado integrando constantemente tácticas de aprendizaje automático en nuestra plataforma durante años. FoxGPT lleva esas capacidades al siguiente nivel y nos permite hacer aún más para crear una plataforma de ciberseguridad externa que pueda hacer frente a las amenazas impulsadas por la IA. 

A medida que los CISO observan cómo la IA está transformando el panorama de la ciberseguridad, encontrarán formas de optimizar sus pilas integrando técnicas de IA y aprendizaje automático en sus estrategias diarias. Los ciberdelincuentes no tienen miedo de usar la poderosa tecnología de IA para hacer el mal. Necesitamos saber cómo aprovecharlo para siempre.

Puede ver toda la información desde aquí.

CALENDARIO DE EVENTOS

¿Necesitas más información?


    En cumplimiento del art. 13 del Reglamento (UE) 2016/679 General de Protección de Datos, le informamos de que INGECOM IGNITION tratará sus datos personales con la finalidad de gestionar su consulta. Puede ejercer sus derechos en materia de protección de datos mediante solicitud a nuestro DPO en gdpr@ingecom.net. Puede obtener información adicional sobre el tratamiento de sus datos en nuestra política de privacidad publicada en www.ingecom.net.