Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

¡Cuidado! Existe un ChatGPT falso que usan para robar tus contraseñas

ChatGPT falso en Internet

En los últimos meses hemos podido ver mucha información relacionada con ChatGPT. Por desgracia, hemos visto muchas noticias negativas, en las que informan de cómo puede llegar a afectar a la seguridad o privacidad. En este artículo vamos a hablar de FraudGPT, un chatbot malicioso, creado para servir como herramienta a los piratas informáticos y poder robar contraseñas o datos personales. Una estafa más, con la que debemos tener mucho cuidado en Internet para no caer en problemas.

No es la primera vez que ocurre. Ya vimos el caso de WormGPT, similar a este del que hablamos. Utilizan la inteligencia artificial de forma maliciosa, para crear con mayor facilidad un malware, lanzar ataques Phishing y, en definitiva, comprometer las contraseñas o datos personales de las víctimas.

FraudGPT, la nueva amenaza

Es un bot con un funcionamiento parecido a ChatGPT. Una persona realiza alguna pregunta o envía un texto y es el propio chat el que va a responder. Puede dar instrucciones sobre cómo actuar, cómo llevar a cabo un determinado ataque cibernético. Esto es un problema importante, ya que está disponible en foros de ciberdelincuentes, donde pueden acceder personas con pocos conocimientos y que, gracias a esta herramienta, pueden aprender.

Si usamos ChatGPT para intentar hacer el mal, vamos a recibir un mensaje donde indica que no ha sido creado para ello. No va a ayudar a generar un malware, por ejemplo. Hemos hecho la prueba preguntándole “cómo hacer un ataque Phishing” y, como ves en la imagen de abajo, la respuesta ha sido clara.

ChatGPT no permite hacer ataques informáticos

Sin embargo, con FraudGPT la cosa cambia. Con este chatbot sí que podríamos obtener instrucciones para llevar a cabo ataques en Internet. Por ejemplo, puede informar sobre sitios web para obtener información sobre el robo de tarjetas bancarias online o crear virus sencillos, pero que pueden ser una amenaza importante.

Según indican los investigadores de seguridad que han detectado esta amenaza, se está expandiendo a través de canales de Telegram y foros en Internet. Aseguran que está destinado exclusivamente al mal, a crear correos electrónicos Phishing, herramientas de malware, robo de tarjetas, etc. Básicamente, un chatbot creado solo para ayudar a los cibercriminales.

Evita problemas de seguridad

Desde RedesZone te recomendamos que estés protegido en todo momento. Hemos visto que la inteligencia artificial puede servir como una herramienta muy útil para los piratas informáticos, por lo que los ataques cibernéticos van a estar más accesibles para muchos que quieran robar contraseñas o colar algún virus.

Es clave que mantengas siempre el sentido común y no cometas errores. Por ejemplo, no deberías hacer clic en enlaces que sean peligrosos y que te lleguen a través de WhatsApp o el correo electrónico. Cuidado con cualquier link en el que no puedas confiar al 100%, ya que puede ser un verdadero peligro.

Por supuesto, es muy importante contar con un buen antivirus. Tener programas de seguridad es esencial para detectar amenazas lo antes posible y evitar que puedan colarnos algún malware para robar contraseñas o poner en riesgo la privacidad al utilizar un troyano y registrar todo lo que hacemos.

Además, también deberías tener todo actualizado. A veces surgen vulnerabilidades y conviene corregirlas lo antes posible. Por tanto, intenta tener siempre las últimas versiones del sistema operativo y de cualquier programa que vayas a utilizar.

En definitiva, como ves hay un nuevo chatbot que puede ser un problema importante para la seguridad. Se trata de FraudGPT y ayuda a los piratas informáticos a crear ataques Phishing o virus para robar contraseñas y datos. Igual que puedes saber si un SMS es un fraude, conviene estar alerta y detectar cualquier correo o página que visites.

El artículo ¡Cuidado! Existe un ChatGPT falso que usan para robar tus contraseñas se publicó en RedesZone.

Enregistrer un commentaire

0 Commentaires