5 tecnologías de IA que los hackers pueden usar de formas terriblemente nuevas

Las tecnologías de Inteligencia
Artificial (IA) están alterando numerosas industrias, pero al menos en la
mayoría de los casos, podemos ver cómo serán más útiles que dañinas a largo
plazo. Sin embargo, estas nuevas herramientas también están abriendo muchas
nuevas oportunidades para tipos nefastos. A continuación, veremos cómo esta
tecnología puede ser utilizada por los hacker para fines maliciosos.




1. IA de
lenguaje natural para poderosos ataques de phishing

Ser capaz de comprender y producir el
lenguaje humano natural ha sido uno de los principales objetivos de la
investigación de IA desde sus inicios. Actualmente, tenemos producción de voz
sintética, chatbots altamente sofisticados, generadores de texto
en lenguaje natural y muchas más tecnologías relacionadas impulsadas por IA.

Estas aplicaciones son perfectas para
ataques de phishing, donde los
hackers se hacen pasar por entidades legítimas y sus representantes como una
forma de obtener información confidencial de las personas. Con estas nuevas
tecnologías, podría hacer que los agentes de IA se hagan pasar por personas en
masa a través de correo electrónico, llamadas telefónicas, mensajería
instantánea o en cualquier otro lugar donde los humanos hablen entre sí a
través de un sistema informático.

A diferencia del phishing que
conocemos, esto sería como el “spear” phishing mejorado, donde los intentos
están dirigidos contra individuos específicos con información sobre ellos en
particular para que la estafa sea más efectiva. Por ejemplo, el software de
inteligencia artificial podría hacerse pasar por el jefe de alguien y pedir que
se ingrese dinero en una cuenta en una variante de phishing conocida como
fraude del CEO.

2. Ingeniería
social con deepfake

La ingeniería social es una práctica dentro del hacking que se enfoca en las
debilidades de la psicología y el comportamiento humanos para eludir las
estrictas medidas tecnológicas de seguridad. Por ejemplo, un hacker podría llamar a la secretaria de una persona importante
haciéndose pasar por un trabajador de saneamiento, preguntándole dónde tiran la
basura actualmente. Luego, el criminal se dirige a ese lugar para buscar
documentos desechados u otras pistas que puedan juntarse para crear exploits.

Los sistemas de aprendizaje profundo
que pueden replicar rostros y voces (conocidos como deepfakes) han avanzado
hasta el punto en que pueden usarse en tiempo real. Hay servicios en los que
puedes enviar muestras de tu propia voz y luego tener texto a voz que suene
como tú. En principio, una tecnología como esta podría usarse para clonar la
voz de cualquier persona. Entonces todo lo que tendrías que hacer es llamar por
teléfono o hacer una videollamada a alguien que se haga pasar por quien
quieras, siendo las figuras públicas el objetivo más fácil de todos.

Por ejemplo, Podcastle Revoice es uno
de esos servicios que promete «crear una copia digital de tu propia
voz» en función de las muestras de voz que envíes.

3. Cracking
más inteligente de códigos y descubrimiento automatizado de vulnerabilidades

A los humanos les lleva horas y horas
recorrer líneas de código en busca de vulnerabilidades, ya sea para
solucionarlas o explotarlas. Ahora hemos visto que los modelos de aprendizaje
automático como ChatGPT pueden
escribir código y reconocer vulnerabilidades en el código enviado, lo que abre
la posibilidad de que la IA pueda estar escribiendo malware más temprano que
tarde.

4. Malware que
aprende y se adapta a través del aprendizaje automático

La fortaleza clave del aprendizaje
automático es cómo puede tomar grandes cantidades de datos y extraer reglas e
información útiles de ellos. Es razonable esperar que el futuro malware aproveche
este concepto general para adaptarse rápidamente a las contramedidas.

Esto puede conducir a una situación
en la que tanto el malware como los sistemas antimalware se conviertan
efectivamente en sistemas de aprendizaje automático en guerra que se lleven
rápidamente entre sí a niveles más altos de sofisticación.




5. IA
generativa para crear datos falsos

Las tecnologías de IA ahora pueden generar imágenes, video, texto y audio
aparentemente de la nada. Estas tecnologías han llegado al punto en que los expertos
no pueden decir que son falsas (al menos no instantáneamente). Esto significa
que se puede esperar una avalancha de datos falsos en Internet en el futuro.

Por ejemplo, los perfiles de redes
sociales falsos en este momento pueden ser bastante fáciles de detectar, por lo
que evitar las estafas de catfishing o las simples campañas de bots para
difundir desinformación no ha sido tan difícil para las audiencias informadas.
Sin embargo, estas nuevas tecnologías de IA podrían generar perfiles falsos que
son indistinguibles de los reales.

“Personas” con rostros únicos con
fotos generadas de toda su vida falsa, información de perfil única y coherente,
y redes completas de amigos y familiares compuestas por otras personas falsas.
Todos tienen conversaciones entre ellos como personas reales. Con redes de
agentes en línea falsos como estos, los actores maliciosos podrían realizar
varias estafas y campañas de desinformación. Esto es tan peligroso que hace unos días una empresa perdió millones de dólares en un ciberataque generado con IA, puedes leer los detalles en el siguiente artículo: 
Un sofisticado ataque con inteligencia artificial permitió robar 25 millones de dólares

¿Es la IA
tanto la cura como la enfermedad?

Es inevitable que algunas personas
intenten usar cualquier tecnología nueva por motivos maliciosos. Lo que hace
que esta nueva generación de tecnología de IA sea diferente es cómo rápidamente
va más allá de la capacidad humana para detectarla.

Esto significa, irónicamente, que
nuestra mejor defensa contra estas vías de ataque mejoradas por IA serán otras
tecnologías de IA que combatan el fuego con fuego. Esto parecería dejarte sin
otra opción que ver cómo se pelean y esperar que los «buenos» lleguen
a la cima. Sin embargo, hay varias cosas que puedes hacer para mantenerte
protegido en línea, evitar el ransomware
y detectar estafas en plataformas populares como Facebook, Facebook
Marketplace, PayPal y LinkedIn.

Ex ingeniera de software de Google advierte sobre los robots asesinos de inteligencia artificial

Deja un comentario