ChatGPT, en primer lugar, es preciso y formal. Este chatbot desarrollado por OpenAI, también presente en Bing Chat, se esfuerza en mantener un tono adecuado y respetuoso, evitando responder preguntas tóxicas o emitir comentarios inapropiados. Sin embargo, ahora surge una versión llamada WormGPT que se diseñó específicamente para eludir todas las barreras éticas del chatbot original.
Antecedentes. En el pasado, hemos visto cómo técnicas de jailbreak y exploits han permitido alterar el comportamiento de ChatGPT, dando lugar a su reverso tenebroso, DAN. Gracias a ciertos comandos, DAN podía comportarse de manera muy distinta a ChatGPT, respondiendo preguntas que de otra manera serían evitadas debido a sus límites éticos.
WormGPT: Un chatbot destinado a escenarios maliciosos. Un desarrollador ha creado WormGPT, un chatbot similar a ChatGPT pero específicamente diseñado para fines perversos. SlashNext, una empresa de servicios de correo seguro, ha probado este chatbot y confirmó que puede ser utilizado en ataques BEC (Business Email Compromise). Este tipo de delito, según el FBI, puede causar graves daños financieros a las empresas a través de estafas por correo a empleados.
Además, WormGPT puede escribir malware. Mientras que ChatGPT es utilizado principalmente para escribir código, con WormGPT ese código puede ser malicioso. El desarrollador que vende acceso a WormGPT mostró cómo la herramienta puede crear malware en Python, lo que representa una amenaza significativa.
Origen de WormGPT. Según PCMag, el desarrollador presentó el chatbot en marzo, aunque no lo lanzó hasta junio. Utilizó un modelo Open Source llamado GPT-J, similar a GPT-3, que tenía 6.000 millones de parámetros. Luego, el desarrollador entrenó el modelo con datos relacionados con la creación de malware.
Peligroso potencial. SlashNext descubrió que WormGPT puede redactar correos electrónicos extremadamente persuasivos para ser utilizados en ataques BEC. Sus resultados fueron inquietantes, ya que produjo un correo electrónico estratégicamente astuto y altamente persuasivo, lo que demuestra su potencial para sofisticados ataques de phishing y BEC.
Fishing con IA: El chatbot no presentó errores ortográficos o gramaticales en su redacción, y utilizó un lenguaje profesional persuasivo para incitar a la víctima a enviar dinero. Los expertos advierten que «este experimento resalta la seria amenaza que representan las tecnologías de IA generativa como WormGPT, incluso en manos de ciberdelincuentes novatos».
Precio de uso. El acceso a WormGPT tiene un costo de 60 euros al mes o 550 euros al año. Algunos compradores en foros expresaron su insatisfacción con el rendimiento del chatbot, contrastando con los comentarios positivos de SlashNext. Sin embargo, queda claro que los modelos de IA entrenados con fines maliciosos serán una preocupante realidad oculta de esta tecnología.
Si te ha gustado esta noticia y te interesa estar al día de lo que sucede en la economía mundial, tecnología, inversiones, empresas… Crea una cuenta en esta red social descentralizada, en la que te pagan por leer posts, escribir comentarios, dar me gustas y un sin fin de cosas más. Además, si te registras desde este enlace empezarás ganando 5 AC (Aureal Coins): http://www.aurealtrade.com/login/?mref=Piwo1823
0 comentarios