
La Inteligencia Artificial, más allá de ser una utilidad que podemos usar en diferentes tareas cotidianas, es un arma más que utilizan los cibercriminales. Hemos visto que las estafas online han aumentado con la IA, ya que los piratas informáticos tienen más facilidad para generar mensajes fraudulentos, sitios web falsos que simulen ser tiendas legítimas y, en definitiva, estafar. Y sí, también podrían generar llamadas.
Un grupo de investigadores de seguridad de la Universidad de Rutgers, en Estados Unidos, han realizado un estudio, publicado el pasado 8 de agosto, en el que han demostrado cómo las llamadas falsas podrían convertirse en un problema aún mayor. Detrás está la Inteligencia Artificial, que va a permitir a los ciberdelincuentes realizar llamadas de forma masiva, sin necesidad de que actúe una persona.
Las llamadas falsas con IA van a ser un problema real
Estos investigadores de seguridad han demostrado cómo utilizar agentes LLM (sistemas de Inteligencia Artificial que utilizan modelos de lenguaje grandes para entender y generar el lenguaje humano), para mantener conversaciones que realmente parezca que habla un humano.
Esto podría dar muchas facilidades a los atacantes, ya que podrían generar numerosas llamadas sin que interactúe un ser humano. Podrían usar este modelo para realizar llamadas convincentes y estafar a la víctima. Por ejemplo, hacerse pasar por su banco, por alguien del servicio técnico de alguna plataforma, etc.
A este proyecto lo han denominado ScamAgent. Han podido demostrar cómo tiene la capacidad de ejecutar una estafa completa, de principio a fin, adaptándose en función de la respuesta que dé la posible víctima. De esta forma, la probabilidad de éxito aumenta, ya que analizará el mejor rumbo posible para la conversación.
Desde INCIBE, el Instituto Nacional de Ciberseguridad de España, consideran que el Spoofing telefónico, el recibir llamadas falsas, es un problema grave y puede tener consecuencias importantes, como el robo de información personal y financiera, suplantación de identidad o el deterioro de la confianza en empresas legítimas.
Funcionamiento
Este proyecto ha estado dirigido por Sanket Badhe, quien explica, a través de la publicación del estudio, que han desarrollado un sistema autónomo, capaz de mantener una conversación duradera, recordar detalles anteriores y ajustar sus tácticas en función de lo que vaya hablando la víctima.
Hasta ahora, los mensajes falsos, las llamadas básicas generadas por IA, tenían la capacidad de realizar conversaciones más básicas, directas y sin la capacidad de ir adaptándose a la víctima. Por tanto, esto hace que sea aún más peligroso recibir una llamada telefónica de este tipo, pues es más complicado de detectar el engaño.
ScamAgent tiene la capacidad de dividir la estafa en pasos pequeños. En primer lugar, puede comenzar con un saludo simple, que parezca inofensivo. A partir de ahí, puede ir generando confianza en la víctima, para que no sospeche que está ante una llamada fraudulenta. Posteriormente, podría generar una necesidad en la persona que recibe la llamada, una urgencia. Tras todo esto, es cuando pediría información confidencial o solicitaría que la víctima haga algo. Ahí empieza realmente el peligro.
Este sistema lo han probado con tres modelos diferentes y muy conocidos: GPT-4 de OpenAI, Claude 3.7 de Anthropic y LLaMA3-70B de Meta. Cada uno de ellos lo han utilizado en situaciones realistas, de estafas que pueden estar presentes en nuestro día a día. Por ejemplo, pedir una verificación del seguro, reclamos de un supuesto premio de lotería, suplantación de funcionarios, ofertas de trabajo falsas, etc.
El estudio no solo probó los modelos, sino que midió su efectividad, revelando diferencias críticas. GPT-4 (OpenAI) demostró ser el más eficaz, logrando una tasa de éxito en la estafa del 85-90% en escenarios controlados. Su principal fortaleza radica en la capacidad de adaptación a respuestas imprevistas y en su naturalidad, ya que solo un 12% de las víctimas simuladas detectaron que era una IA. Por su parte, Claude 3 (Anthropic) alcanzó una efectividad media (70-75%) con una tasa de detección del 18%, mientras que LLaMA3-70B (Meta) fue el más variable (60-65% de éxito) y el más fácil de detectar (28% de las víctimas lo identificaron).
También utilizaron víctimas ficticias, con diferentes perfiles. Algunas eran más cautas, otras hacían más preguntas, otras directamente seguían las instrucciones, etc. Buscaban diferentes reacciones reales que pueda haber en personas de todas las edades y conocimientos, que respondieran a una llamada. En cada una de estas llamadas, el sistema se iba adaptando, reformulando solicitudes y modificando las tácticas.
| Tipo de Estafa | Objetivo del Ciberdelincuente | Tasa de Éxito Promedio |
|---|---|---|
| Verificación de Seguros | Robo de datos personales y pólizas | 78% |
| Reclamo de Premios de Lotería | Obtención de pagos por adelantado | 82% |
| Suplantación de Funcionarios | Intimidación para conseguir pagos o datos | 75% |
| Ofertas de Trabajo Falsas | Robo de datos bancarios para supuestos depósitos | 68% |
En definitiva, los resultados de este estudio han demostrado que las llamadas falsas que utilizan IA, van a suponer un problema real. Van a tener la capacidad de generar conversaciones muy realistas, con diferentes estrategias y cambiando el enfoque en función de la víctima.
Es esencial que, para evitar problemas, tengas en cuenta los siguientes consejos:
- Nunca des códigos ni contraseñas por teléfono. Tu banco, por ejemplo, nunca te lo pedirá.
- Desconfía de cualquier llamada que recibas, especialmente si son de número extraño y utilizan la urgencia.
- Ten cuidado con los datos que expones en Internet. Cuanta menos información des, menos probabilidad de recibir llamadas de este tipo.
0 Commentaires