IA generativa: amigo y enemigo de la ciberseguridad

Blog

HogarHogar / Blog / IA generativa: amigo y enemigo de la ciberseguridad

Aug 20, 2023

IA generativa: amigo y enemigo de la ciberseguridad

Robo de datos personales a través de un concepto de computadora portátil para piratas informáticos, red

Robo de datos personales a través de un concepto de computadora portátil para piratas informáticos, seguridad de red y seguridad bancaria electrónica ... [+]

Está claro que la inteligencia artificial ha ido más allá de una mera curiosidad del futuro, ya que las herramientas generativas de IA como el chatbot ChatGPT de OpenAI, el generador de imágenes DALL-E2 y los compañeros virtuales CarynAI y Replika están siendo adoptadas por todos, desde personas solitarias que mantienen relaciones amorosas virtuales. a las personas que crean fotos aspiracionales para su foto de perfil en las redes sociales. En el frente comercial, los directores ejecutivos visualizan el impacto de la IA generativa en sus empresas en áreas tan variadas como el análisis de datos, el servicio al cliente, los arreglos de viaje, el marketing y la escritura de código.

En el mundo de la ciberseguridad, la IA está creando el mismo revuelo. La Conferencia RSA es la conferencia de ciberseguridad más grande del mundo. Celebrado en San Francisco en abril, incluyó perspectivas sobre los riesgos y beneficios de la IA por parte de funcionarios gubernamentales de la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE. UU. (CISA), la Agencia de Seguridad Nacional (NSA) y la Administración Nacional de Aeronáutica y del Espacio (NASA), y otros. En la misma conferencia, Google anunció su nuevo Google Cloud Security AI Workbench impulsado por IA, que aprovecha los avances en los modelos de lenguaje extenso (LLM). También en RSA, SentinelOne anunció su plataforma de detección de amenazas de ciberseguridad impulsada por IA con respuesta autónoma en toda la empresa que aprovecha estos avances, mientras que Veracode anunció Veracode Fix, que utiliza IA generativa para recomendar soluciones para fallas de seguridad en el código.

Tomer Weingarten, cofundador y director ejecutivo de SentinelOne

Tomer Weingarten es cofundador y director ejecutivo de SentinelOne, una empresa líder en ciberseguridad que cuenta con Hitachi, Samsung y Politico entre sus clientes. Explica que la IA generativa puede ayudar a abordar los mayores problemas de la ciberseguridad ahora: la complejidad, en el sentido de que la mayoría de las personas desconocen la metodología y las herramientas necesarias para proteger y contrarrestar los ataques cibernéticos; y la escasez de talento creada por la alta barrera de entrada causada por la muy alta competencia necesaria para trabajar en el campo.

"La IA es súper escalable para abordar todos estos problemas, y hemos demostrado la capacidad de alejarnos de la necesidad de usar lenguajes de consulta complejos, operaciones complejas e ingeniería inversa para ahora permitir que incluso un analista de nivel de entrada use una IA generativa algoritmo que puede ejecutarse automáticamente detrás de escena para traducir al inglés u otros idiomas para proporcionar información y aplicar una acción automatizada para remediar los problemas que surgen", dijo Weingarten. "La forma en que hace ciberseguridad es completamente transformadora al eliminar la complejidad y permitir que cada analista sea un súper analista. Es casi como si les estuviera dando superpoderes para hacer lo que normalmente les llevaría unos días y ahora hacer en segundos. Es un verdadero multiplicador de fuerza".

El otro gran problema de la ciberseguridad que aborda la IA generativa, según Weingarten, es el hecho de que la industria de la ciberseguridad se construyó con productos discretos y aislados, cada uno diseñado para abordar un aspecto específico de la ciberdefensa. "La verdadera disrupción de la IA en la ciberseguridad proviene de la agregación de todos esos datos en un repositorio central", dijo. "Y luego, cuando aplica sus algoritmos de IA sobre ese lago de datos, puede comenzar a ver correlaciones compuestas entre todos esos elementos diferentes que intervienen en la defensa de la seguridad cibernética hoy. En estos problemas de uso intensivo de datos, la IA le permite volverse increíblemente competente para encontrar aguja en un pajar."

Brian Roche, director de productos de la empresa de seguridad de aplicaciones Veracode

Brian Roche, director de productos de la empresa de seguridad de aplicaciones Veracode, explica el lado malicioso de la IA en la ciberseguridad. "Los piratas informáticos están utilizando IA para automatizar ataques, evadir sistemas de detección e incluso crear malware que puede mutar en tiempo real", dijo Roche. "Además, los foros de la Dark Web ya están repletos de debates sobre cómo utilizar plataformas de IA generativa, como ChatGPT, para ejecutar ataques de phishing e ingeniería social".

Roche afirma que las soluciones de IA con un modelo de aprendizaje profundo en el procesamiento del lenguaje natural podrían adoptar un enfoque preventivo de la ciberseguridad, es decir, compartiendo soluciones sugeridas para fallas de seguridad mientras los desarrolladores escriben código. "Esto reduciría la necesidad de que los desarrolladores solucionen estos defectos manualmente en algún momento del ciclo de vida de desarrollo de software de su aplicación, ahorrando tiempo y recursos. Cuando se entrena en un conjunto de datos curado, este tipo de solución impulsada por IA no reemplazaría a los desarrolladores, sino que simplemente permitiría para que se concentren en crear un código más seguro y dejen la tarea tediosa pero muy importante de escanear y remediar fallas para la automatización", dijo Roche.

Sin embargo, Roche advierte que "las organizaciones deben tener cuidado antes de comprometerse con una solución de IA, ya que un modelo de IA mal entrenado puede causar tanto daño como ninguno. Los modelos de IA son tan buenos como los datos que los impulsan: mejor datos, más precisos serán los resultados".

La IA generativa puede permitir que el código malicioso se transforme, creando una amenaza mayor, ya que evade la detección y las defensas tradicionales de ciberseguridad. Las defensas de ciberseguridad deben innovar y evolucionar un paso por delante de los ciberdelincuentes si quieren seguir siendo eficaces.

A esto, Weingarten señala que su teoría sobre el beneficio que la IA generativa aporta a la ciberseguridad al eliminar la complejidad y abordar la escasez de talento va en ambos sentidos. La IA generativa puede ayudar a los adversarios del gobierno a ser más escalables y avanzados, y también puede eliminar la barrera de entrada para los piratas informáticos. "La IA puede ayudar a los atacantes y adversarios de nivel de entrada a obtener capacidades que antes estaban reservadas solo para los atacantes de grado gubernamental. La IA generativa impulsará el panorama de los ataques", dijo Weingarten. Agrega que la IA generativa también se puede usar para crear un video falso de un líder nacional que brinda información que respalda el nefasto objetivo de un adversario, lo que genera escepticismo sobre la incapacidad de saber qué es real, qué es falso y en quién confiar.

El término "código abierto" se refiere al código que es de acceso público y que el propietario permite que cualquier persona pueda ver, usar, modificar, compartir o distribuir. Se puede argumentar que el código abierto promueve un desarrollo más rápido a través de la colaboración y el intercambio. Según lo informado por el escritor de Business Insider, Hasan Chowdhury, el ingeniero de software sénior de Google, Luke Sernau, "dijo que los ingenieros de código abierto estaban haciendo cosas con $ 100 con las que 'luchamos' a $ 10 millones, 'haciéndolo en semanas, no en meses'", afirmando en un Recientemente se filtró un memorando de Google de que la facción de código abierto está "superando" a Google, OpenAI y otras compañías tecnológicas importantes en lo que respecta a la IA generativa.

Weingarten siente que tanto el código abierto como el propietario tienen un lugar. “Pero al final del día, el código abierto y la transparencia que conlleva, especialmente con una tecnología tan fundamental, es un ingrediente imperativo”, dijo. "Particularmente para las empresas más expertas en tecnología, aprovecharemos los algoritmos de código abierto porque pueden ser más predecibles para nosotros, entendemos cómo funcionan, podemos capacitarlos para lo que necesitamos".

Reuben Maher, director de operaciones de la firma de ciberseguridad y análisis Skybrid Solutions

Reuben Maher, director de operaciones de la firma de análisis y seguridad cibernética Skybrid Solutions, es pragmático acerca de un enfoque cibernético holístico que incorpora IA generativa y código abierto. "La convergencia del código fuente abierto y las sólidas capacidades de IA generativa tiene un gran potencial en el dominio de la ciberseguridad empresarial para proporcionar a las organizaciones defensas sólidas, y cada vez más inteligentes, contra las amenazas en evolución", dijo Maher. "Por un lado, la capacidad de la IA generativa para predecir amenazas, automatizar tareas y mejorar la inteligencia de amenazas se ve reforzada por la transparencia y el apoyo de la comunidad que brindan los marcos de código abierto. Permite una detección y una respuesta a las vulnerabilidades mucho más rápidas en toda la empresa".

"Por otro lado", continúa Maher, "es un buen equilibrio. Los modelos fuertes de IA generativa pueden tener falsos positivos y falsos negativos, lo que hace que el proceso de toma de decisiones sea opaco. El código fuente abierto, a pesar de su transparencia y rentabilidad, puede dejar el sistema expuesto a atacantes que podrían explotar las vulnerabilidades descubiertas hasta que el soporte de la comunidad se ponga al día". Maher concluye: "estos factores requieren un enfoque cuidadoso y, en última instancia, la aplicación estratégica de estas tecnologías podría ser un eje para asegurar su negocio en nuestro mundo digital cada vez más conectado".

Entonces, ¿cuál es la respuesta? La IA generativa llegó para quedarse y ofrece tanto riesgos como recompensas para la ciberseguridad.

Maher sugiere que para mantener el ritmo es cada vez más necesaria una respuesta inteligente en el lado de la caza de amenazas cibernéticas, al menos proporcional a la de los malos actores. "La incorporación de LLM será cada vez más común a medida que los jugadores de código abierto construyan rápidamente modelos mucho más sofisticados que superen las capacidades de gigantes globales como Google, Microsoft y OpenAI", dijo Maher. "Los líderes en soluciones cibernéticas de IA generativa deberán aumentar la automatización en torno a más tareas transaccionales al tiempo que limitan los falsos positivos y negativos, todo mientras mantienen la confianza de sus usuarios debido a las crecientes preocupaciones sobre la privacidad de los datos en torno a grandes volúmenes de información confidencial o personal".

Weingarten señala que la IA generativa hizo su debut generalizado en un momento en que las tensiones geopolíticas son altas. "Agregar un ingrediente sobrealimentado como la IA a una olla hirviendo de estofado inestable realmente podría crear más estragos, por lo que se necesitan pautas para el uso responsable de la IA generativa. La regulación gubernamental es probablemente el factor más importante en todo esto, y aunque ha habido algunos intentos en Europa, no lo hemos hecho en serio en los EE.

Maher concluye: "Aunque entiendo la 'pausa por la ética' que algunos líderes mundiales de IA querían que las naciones líderes en tecnología desarrollaran capacidades generativas de IA, no estoy de acuerdo con esa estrategia ya que los delincuentes no están sujetos a nuestra ética. Simplemente podemos". No dejemos que los delincuentes que usan LLM lideren la innovación en esta área, lo que dará como resultado que todos los demás se pongan al día. Los malos actores no se detendrán mientras resolvemos las cosas, entonces, ¿por qué deberíamos hacerlo nosotros? ¡Hay mucho en juego!

La conversación ha sido editada y condensada para mayor claridad. Mira mis otras columnas aquí.