Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Usar ChatGPT para analizar malware no es la mejor idea y puede comprometer tus datos en el intento


Con la aparición de los modelos de lenguaje, se puede realizar un aprendizaje exhaustivo para un contenido específico. Estas herramientas permiten obtener resultados en tan solo unos pocos segundos, lo que fomenta la productividad. Con ChatGPT, se pueden emplear sus conocimientos para que nos revele información que no entendamos, como la capacidad de descifrar códigos de un malware. Pero este tipo de usos podría estar perjudicando nuestra seguridad.

OpenAI ha convertido ChatGPT en una de las herramientas más poderosas del panorama de la inteligencia artificial. Su llegada a finales del año 2022 sorprendió a todo el mundo. La facilidad de poder hablar con un asistente virtual y que responda a todas nuestras peticiones se había vuelto un sueño hecho realidad.

Sin embargo, no todo es oro lo que reluce y, aunque desde la compañía confirman que su uso es seguro, es necesario ser precavidos y permanecer al margen de ciertas prácticas. En este contexto, hay ocasiones en las que se nos ocurren formas ingeniosas para sacar provecho de sus capacidades. Sobre todo si lo que estamos tratando de averiguar es cómo funciona el complejo mundo del desarrollo de los software maliciosos mediante la IA.

¿Cuáles son los riesgos que puedo correr?

Según corroboran los expertos de ESET, existen algunos peligros a los que podemos estar expuestos si solicitamos información acerca del malware.

Datos que pueden acabar almacenados

Si se escoge una muestra de malware y se adjunta como prueba para que ChatGPT interprete esos códigos, podríamos estar cometiendo un error. Ese mismo archivo contiene fragmentos muy delicados que acabarían almacenándose en los servidores del chatbot. Incluso, otros actores que encuentren una brecha de seguridad en la plataforma podrían acceder y utilizar esos datos para entrenar a la IA con malas intenciones.

La mejor opción en este caso es, si descargas cualquier tipo de virus sospechosos, eliminarlo de inmediato de tu dispositivo.

Respuestas erróneas

ChatGPT no es un antivirus ni mucho menos. No es capaz de realizar un análisis interpretativo de si tu ordenador está o no infectado ni de lo que puede integrar un malware. Su naturaleza se basa en recopilar bases de datos para transformarlos en texto. Esto da lugar a que se generen interpretaciones erróneas.

Los algoritmos de IA no son perfectos y pueden dar lugar a respuestas poco precisas. Por ello, tampoco es recomendable su uso para atención médica, pues podría poner nuestra salud sobre las cuerdas.

Manipulaciones

Los analistas destacan que una utilidad fraudulenta puede contemplar la manipulación del comportamiento del modelo de lenguaje. Esta técnica se la conoce como Promp Injection y puede revelarse de varias formas:

  • Instrucciones ocultas: el malware a veces contiene comentarios escondidos en un conjunto de metadatos, por lo que podría obligar a la IA a que respondiera diciendo que el fichero adjunto es seguro.
  • Encubrir el significado de un código alterado: igualmente, se pueden incluir funciones con nombres en clave que aparentan ser legítimos, pero en realidad están actuando de forma engañosa.
  • Manipulación de logs: estos archivos se utilizan para diagnosticar problemas y pueden ser descifrados con el objetivo de causar daños en nuestros sistemas.
Pasos para proteger tus datos al usar IA
Acción Esencial Detalles Importantes
1 Activar 'Modo Privado' en ChatGPT Ve a tu Perfil → Configuración → Controles de datos y desactiva 'Guardar historial de chat'.
2 No subir NUNCA información sensible Evita pegar código propietario, datos personales, contraseñas o información financiera.
3 Utilizar herramientas especializadas Para análisis de seguridad, usa siempre herramientas como VirusTotal en lugar de un LLM.
4 Verificar siempre la información Contrasta las respuestas de la IA con fuentes fiables y documentadas, especialmente en temas técnicos.

La IA debe tratarse como un mero ayudante

Después de abordar estos problemas técnicos que atentan contra nuestra privacidad, es necesario advertir que la IA hay que enfocarla como un complemento. Según los profesionales del sector, esto se traduce en que el usuario es el que debería evaluar el impacto de los archivos y no concebir ChatGPT «como un reemplazo del analista humano ni de las herramientas especializadas».

Además, si se quiere contribuir a la defensa de la ciberseguridad en la IA, es preciso tener en cuenta las siguientes consideraciones:

  • Usar una herramienta de análisis externo para archivos dudosos.
  • Configurar la privacidad de la cuenta.
  • No compartir contraseñas o información bancaria.
  • Contrastar las respuestas de la IA con fuentes fiables.
  • Usar prompts inofensivos y legítimos.
  • Si el sistema ofrece un comportamiento contradictorio, registra el caso y envíalo al servicio de soporte.

Preguntas frecuentes sobre el análisis de malware con IA

¿Por qué es peligroso usar ChatGPT para analizar malware?
Hay tres razones principales: los datos del archivo corrupto pueden quedar almacenados en los servidores de OpenAI, la IA puede dar respuestas incorrectas y el modelo puede ser manipulado por el propio malware para engañarte.
¿Puede ChatGPT detectar si un archivo tiene un virus?
No. ChatGPT se considera como un complemento para resolver ciertas dudas, y no como un software antivirus.
Si no debo usar ChatGPT, ¿qué alternativa segura existe para analizar un archivo sospechoso?
La mejor opción es realizar un análisis de tu dispositivo a través de tu antivirus de confianza y garantizar tu seguridad.

Enregistrer un commentaire

0 Commentaires