La IA también ayuda a cibercriminales; realizan ataques más rápido

Los ataques de los cibercriminales suelen ser más rápidos y a menor costo contra gobiernos gracias a la IA.
Hacker -
La Inteligencia Artificial también puede ayudar a cibercriminales a vulnerar sitios.
La IA también ayuda a cibercriminales; realizan ataques más rápido. Foto: iStock.

La Inteligencia Artificial es una herramienta que ofrece muchos beneficios como reducir costos o eliminar tareas repetitivas. Lamentablemente, también puede utilizarse para realizar ciberataques de manera más eficiente y tanto las empresas como los gobiernos deben estar preparados.

De acuerdo con Frank Abagnale, una de las autoridades más respetadas del mundo en falsificación, malversación, delitos cibernéticos y estafas cuya vida inspiró la película Catch me If you can, los ciberdelincuentes utilizarán la IA de muchas formas para perseguir a las personas, robar dinero y obtener datos.

“Lo que hice hace 50 años cuando era adolescente es cuatro mil veces más fácil de hacer hoy y con la Inteligencia Artificial será cinco mil veces más fácil”, advirtió al participar en Dell World 2023.

Ante esto, Abagnale consideró que las empresas y gobiernos deben construir una mejor seguridad e ir un paso por delante del ciberdelincuente, “hacérselo más difícil”, porque la mente criminal nunca cambia, son las herramientas que utilizan para cometer los delitos las que cambian y de las que se aprovechan. 

John Scimone, presidente global de Seguridad de Dell, coincidió en que la IA, particularmente la generativa, podría usarse para hacer el mal. “Desde una perspectiva profesional de seguridad, estamos muy preocupados y atentos a los nuevos tipos de ataques que pueden surgir”. 

Por ejemplo, se prevé que la Inteligencia Artificial Generativa se use para crear perfiles falsos, mejorar el lenguaje de los correos electrónicos de phishing, así como para cosas que dificultan la seguridad. 

Scimone también teme que los piratas informáticos utilicen la ciencia de datos combinada con la IA, ya que podría generar ataques masivos y automatizados.

 “Podrían lanzar un ataque masivo en dos microsegundos y, en ese tiempo, los defensores no tendrían la capacidad de pensar o responder”, relató. 

Empresas de ciberseguridad como Avast también están identificando los tipos de riesgos para la ciberseguridad que genera la Inteligencia Artificial, por ejemplo, usar sistemas basados en esa tecnología que aprendan de incidentes pasados y adapten nuevas tácticas. 

Lo anterior permitiría al atacante eludir las soluciones de seguridad tradicionales y lanzar vulneraciones muy eficaces.

¿Por qué hay que tener cuidado con la ingeniería social?

Abagnale consideró que el mayor riesgo para la ciberseguridad es la ingeniería social, es decir, utilizar diferentes métodos para engañar a las personas y éstas brinden desde su información personal hasta acceso a sistemas.

“Hice ingeniería social cuando tenía 16 años (…) me decían a dónde ir, cómo conseguir el uniforme, qué formularios llenar, pero en esos días sólo había una forma de comunicación, el teléfono, hoy tenemos mensajes de texto, correos electrónicos”, comentó el experto.

De hecho, una de las formas de ingeniería social más comunes son los correos electrónicos de phishing que se remontan a los mensajes de personas en Nigeria que querían regalarte dinero.

Abagnale destacó que ahora esos correos electrónicos de phishing se están volviendo muy sofisticados porque los cibercriminales usan información de las redes sociales y también pueden usar inteligencia artificial generativa para hacer los mensajes más coherentes y personalizados.

La IA también podría ayudar a los expertos de ciberseguridad a:

  • Automatizar diversas tareas de prevención
  • Mejorar la precisión en la detección de amenazas
  • Priorizar la respuesta a los incidentes

Youtube Imagen
Icono Play youtube
 
Tips para tus finanzas personales directo en tu correo.
Al registrarme acepto los términos y condiciones

  TAGS

Taboola
Icono de te puede interesar de en dineroenimagen

TAMBIÉN TE PUEDE INTERESAR