Tecnología

No todo es bueno con la IA: Así roban los delincuentes tu dinero e información personal

La inteligencia artificial (IA) se ha convertido en una herramienta poderosa no solo para generar avances tecnológicos, sino también para realizar actividades ilícitas.

La concienciación y la precaución son claves para protegerse de las amenazas cibernéticas.
IA La concienciación y la precaución son claves para protegerse de las amenazas cibernéticas. (Towfiqu Barbhuiya - Unsplash)

Los cibercriminales están aprovechando el potencial de la IA para llevar a cabo fraudes y obtener dinero e información personal de sus víctimas.

PUBLICIDAD

La empresa de ciberseguridad ESET ha identificado varias técnicas comunes utilizadas por estos delincuentes, por lo que señalan que es fundamental ser cauteloso con la información que se comparte en línea, ya que la inteligencia artificial no es ni buena ni mala, sino que todo depende de las intenciones con las que se utilice.

Deepfake: la amenaza de las identidades falsas

Uno de los métodos más destacados de estafa con IA es el uso de deepfakes.

Esta técnica, que utiliza IA generativa, puede crear audios y videos falsos con la voz y el rostro de cualquier persona, incluso a partir de unos pocos segundos de grabación obtenidos de redes sociales como Instagram o TikTok.

Los deepfakes no solo se utilizan para difundir información falsa sobre figuras públicas, sino que también permiten a los ciberdelincuentes superar los sistemas de verificación de identidad al superponer imágenes falsificadas sobre rostros reales, engañando así a los sistemas de seguridad.

Suplantación y doxing: revelar información sensible

La IA generativa también se emplea para crear engaños que persuaden a las víctimas a revelar información sensible. Esta técnica, conocida como doxing, consiste en publicar datos personales para intimidar o extorsionar.

Los ciberdelincuentes utilizan herramientas como GPT-4 para generar mensajes convincentes que engañan a las víctimas para que compartan información confidencial. Inluso existen servicios que integran ChatGPT y permiten a los atacantes perfeccionar el contenido de sus correos electrónicos maliciosos.

PUBLICIDAD

Servicios de jailbreak facilitan el ransomware

En lugar de desarrollar sus propios modelos de IA, los cibercriminales están optando por contratar servicios de jailbreak. Esto les permite escribir códigos para ejecutar ransomware u otro tipo de malware, eludiendo así las restricciones de las herramientas originales.

Según los expertos, esta práctica facilita la creación y distribución de software malicioso sin necesidad de conocimientos avanzados en programación.

Ingeniería social y manipulación

Los ciberatacantes también utilizan IA para mejorar sus técnicas de ingeniería social, utilizando la manipulación psicológica como una herramienta efectiva para extorsionar a las víctimas.

Al analizar patrones de comportamiento y preferencias personales, los delincuentes pueden crear mensajes altamente personalizados que aumentan las probabilidades de éxito en sus ataques.

Phishing automatizado

Finalmente, la IA permite automatizar y mejorar los ataques de phishing. Al analizar grandes volúmenes de datos, los cibercriminales pueden identificar objetivos potenciales y crear correos electrónicos y mensajes que parecen genuinos.

La automatización de estos ataques no solo aumenta su eficiencia, sino que también dificulta su detección por parte de las víctimas.

PUBLICIDAD

Tags


Lo Último