Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Demuestran cómo podrías empezar a recibir llamadas falsas creadas por IA y no diferenciar de las legítimas


La Inteligencia Artificial, más allá de ser una utilidad que podemos usar en diferentes tareas cotidianas, es un arma más que utilizan los cibercriminales. Hemos visto que las estafas online han aumentado con la IA, ya que los piratas informáticos tienen más facilidad para generar mensajes fraudulentos, sitios web falsos que simulen ser tiendas legítimas y, en definitiva, estafar. Y sí, también podrían generar llamadas.

Un grupo de investigadores de seguridad de la Universidad de Rutgers, en Estados Unidos, han realizado un estudio, publicado el pasado 8 de agosto, en el que han demostrado cómo las llamadas falsas podrían convertirse en un problema aún mayor. Detrás está la Inteligencia Artificial, que va a permitir a los ciberdelincuentes realizar llamadas de forma masiva, sin necesidad de que actúe una persona.

Las llamadas falsas con IA van a ser un problema real

Estos investigadores de seguridad han demostrado cómo utilizar agentes LLM (sistemas de Inteligencia Artificial que utilizan modelos de lenguaje grandes para entender y generar el lenguaje humano), para mantener conversaciones que realmente parezca que habla un humano.

Esto podría dar muchas facilidades a los atacantes, ya que podrían generar numerosas llamadas sin que interactúe un ser humano. Podrían usar este modelo para realizar llamadas convincentes y estafar a la víctima. Por ejemplo, hacerse pasar por su banco, por alguien del servicio técnico de alguna plataforma, etc.

A este proyecto lo han denominado ScamAgent. Han podido demostrar cómo tiene la capacidad de ejecutar una estafa completa, de principio a fin, adaptándose en función de la respuesta que dé la posible víctima. De esta forma, la probabilidad de éxito aumenta, ya que analizará el mejor rumbo posible para la conversación.

Desde INCIBE, el Instituto Nacional de Ciberseguridad de España, consideran que el Spoofing telefónico, el recibir llamadas falsas, es un problema grave y puede tener consecuencias importantes, como el robo de información personal y financiera, suplantación de identidad o el deterioro de la confianza en empresas legítimas.

Llamada entrante en un teléfono móvil
Una persona con el teléfono móvil en la mano y una llamada entrante / Foto: ADSLZone

Funcionamiento

Este proyecto ha estado dirigido por Sanket Badhe, quien explica, a través de la publicación del estudio, que han desarrollado un sistema autónomo, capaz de mantener una conversación duradera, recordar detalles anteriores y ajustar sus tácticas en función de lo que vaya hablando la víctima.

Hasta ahora, los mensajes falsos, las llamadas básicas generadas por IA, tenían la capacidad de realizar conversaciones más básicas, directas y sin la capacidad de ir adaptándose a la víctima. Por tanto, esto hace que sea aún más peligroso recibir una llamada telefónica de este tipo, pues es más complicado de detectar el engaño.

ScamAgent tiene la capacidad de dividir la estafa en pasos pequeños. En primer lugar, puede comenzar con un saludo simple, que parezca inofensivo. A partir de ahí, puede ir generando confianza en la víctima, para que no sospeche que está ante una llamada fraudulenta. Posteriormente, podría generar una necesidad en la persona que recibe la llamada, una urgencia. Tras todo esto, es cuando pediría información confidencial o solicitaría que la víctima haga algo. Ahí empieza realmente el peligro.

Este sistema lo han probado con tres modelos diferentes y muy conocidos: GPT-4 de OpenAI, Claude 3.7 de Anthropic y LLaMA3-70B de Meta. Cada uno de ellos lo han utilizado en situaciones realistas, de estafas que pueden estar presentes en nuestro día a día. Por ejemplo, pedir una verificación del seguro, reclamos de un supuesto premio de lotería, suplantación de funcionarios, ofertas de trabajo falsas, etc.

El estudio no solo probó los modelos, sino que midió su efectividad, revelando diferencias críticas. GPT-4 (OpenAI) demostró ser el más eficaz, logrando una tasa de éxito en la estafa del 85-90% en escenarios controlados. Su principal fortaleza radica en la capacidad de adaptación a respuestas imprevistas y en su naturalidad, ya que solo un 12% de las víctimas simuladas detectaron que era una IA. Por su parte, Claude 3 (Anthropic) alcanzó una efectividad media (70-75%) con una tasa de detección del 18%, mientras que LLaMA3-70B (Meta) fue el más variable (60-65% de éxito) y el más fácil de detectar (28% de las víctimas lo identificaron).

También utilizaron víctimas ficticias, con diferentes perfiles. Algunas eran más cautas, otras hacían más preguntas, otras directamente seguían las instrucciones, etc. Buscaban diferentes reacciones reales que pueda haber en personas de todas las edades y conocimientos, que respondieran a una llamada. En cada una de estas llamadas, el sistema se iba adaptando, reformulando solicitudes y modificando las tácticas.

Escenario de estafas probadas
Tipo de Estafa Objetivo del Ciberdelincuente Tasa de Éxito Promedio
Verificación de Seguros Robo de datos personales y pólizas 78%
Reclamo de Premios de Lotería Obtención de pagos por adelantado 82%
Suplantación de Funcionarios Intimidación para conseguir pagos o datos 75%
Ofertas de Trabajo Falsas Robo de datos bancarios para supuestos depósitos 68%

En definitiva, los resultados de este estudio han demostrado que las llamadas falsas que utilizan IA, van a suponer un problema real. Van a tener la capacidad de generar conversaciones muy realistas, con diferentes estrategias y cambiando el enfoque en función de la víctima.

Es esencial que, para evitar problemas, tengas en cuenta los siguientes consejos:

  • Nunca des códigos ni contraseñas por teléfono. Tu banco, por ejemplo, nunca te lo pedirá.
  • Desconfía de cualquier llamada que recibas, especialmente si son de número extraño y utilizan la urgencia.
  • Ten cuidado con los datos que expones en Internet. Cuanta menos información des, menos probabilidad de recibir llamadas de este tipo.

Preguntas frecuentes

¿Qué pasa si soy víctima de una llamada falsa?
Podrían robar tus contraseñas, datos personales o hacer que descargues algún archivo malicioso que te envíen, posteriormente, a tu correo.
¿Qué tipo de empresas suplantan con llamadas falsas?
Pueden suplantar empresas de todo tipo, como bancos, plataformas de Streaming, tiendas online, redes sociales...
¿Cómo evito que sepan mi número?
En muchos casos, esto es inevitable ya que llaman a números al azar o utilizan bases de datos filtradas que, por desgracia, hay muchas. No obstante, puedes tomar precauciones como evitar exponer tu número en redes sociales, foros abiertos, tener cuidado dónde te registras, etc.

Enregistrer un commentaire

0 Commentaires