Demuestran que ChatGPT puede crear un 'malware' indetectable por un antivirus
Los ciberdelincuentes ya están utilizando esta herramienta para ejecutar ataques de software malicioso.
Un investigador ha demostrado que se puede utilizar ChatGPT para crear un malware que pueda robar datos de dispositivos sin ser detectado por los programas antivirus como VirusTotal.
ChatGPT es un chatbot basado en inteligencia artificial desarrollado por OpenAI que puede realizar tareas como responder preguntas y mantener conversaciones realistas con los usuarios.
Varias compañías, como Microsoft, han implementado esta tecnología en sus servicios, pero algunas empresas y líderes del sector, como Steve Wozniak y Elon Musk, han señalado la peligrosidad de esta IA.
En ese sentido, ambas personalidades del mundo tecnológico han solicitado una pausa temporal en los grandes experimentos con IA debido a los riesgos que pueden representar para la sociedad.
Vinculado a la preocupación de Wozniak y Musk, Check Point ha descubierto que los ciberdelincuentes ya están utilizando esta herramienta para crear cepas de malware y ejecutar ataques de software malicioso.
Recientemente, el investigador de Forcepoint Aaron Mulgrew ha descubierto que se puede utilizar ChatGPT para desarrollar un exploit de día cero que pueda robar datos de dispositivos y evadir controles de detección de software malicioso como VirusTotal.
Aunque en un principio el chatbot se negó a proporcionarle cualquier código para ayudarlo a llevar a cabo esta acción, Mulgrew descubrió que era fácil "evadir las protecciones insuficientes que tiene ChatGPT y crear malware avanzado sin escribir ningún código", solo utilizando el modelo desarrollado por OpenAI.
Para superar los filtros impuestos por el chatbot, Mulgrew decidió generar pequeños fragmentos de código que, en conjunto, se convertirían en carga maliciosa, reporta Europa Press.
Luego, Mulgrew obtuvo un código capaz de dividir un PDF en fragmentos de 100KB y utilizó la técnica de esteganografía para realizar una fuga de datos o "exfiltración silenciosa".
El investigador expuso el código ante diferentes proveedores de soluciones de seguridad de VirusTotal, de los cuales solo cinco detectaron el código como sospechoso.
ChatGPT propició la creación de LSB Steganography, lo que redujo a dos los proveedores capaces de detectar el código malicioso.
Mulgrew le pidió a ChatGPT que introdujera dos nuevos cambios en el código para ofuscar su carácter malicioso y logró pasar el código nuevamente por VirusTotal sin ser detectado por los proveedores de soluciones de seguridad.
En conclusión, el investigador ha demostrado que se puede desarrollar un exploit de día cero utilizando las indicaciones de ChatGPT y sin escribir ningún código, lo que podría generar un ataque muy avanzado en solo unas pocas horas.
DiarioDigitalRD
DiarioDigitalRD es un medio de noticias generales que se origina en Santo Domingo, República Dominicana. Para contacto 809-616-6354 Cel. 809-980-6500 y 809-6081130. editor@diariodigitalrd.com.
Artículos relacionados
ChatGPT se refuerza para afrontar crisis de salud mental de usuarios
OpenAI anuncia nuevas funciones para proteger a usuarios en momentos de angustia. En un esfuerzo por mejorar su capacidad para manejar situaciones delicadas, OpenAI ha…
Investigadores de UOC: ChatGPT cambia de personalidad según idioma y cultura
Prueban que la IA replica estereotipos culturales. Las respuestas varían al cambiar idioma o país de referencia NUEVA YORK.-Un estudio pionero de la Universitat Oberta…
Tus fotos pueden delatarte: ChatGPT ya reconoce lugares
Compartir imágenes en vacaciones podría exponer tu ubicación exacta sin permiso En plena temporada de Semana Santa, muchas personas aprovechan para escaparse a la playa,…