Un hacker présente la version « Godmode » de ChatGPT qui contourne toutes les défenses – Tech
je Qu'on le déteste ou pas, mais un hacker a annoncé qu'il avait piraté la sécurité de ChatGPT et le chatbot d'OpelAI a été libéré de ses chaînes. Autrement dit, il perd ses inhibitions et répond à toutes les questions qui lui sont posées.
Le hacker, qui s'appelle Pline le Prompteur sur le réseau social X, affirme que n'importe qui peut vivre de l'IA comme il le souhaite.
🥁 Présenté par : GODMODE GPT ! 😶🌫️https://t.co/BBZSRe8pw5
GPT-4O est illimité ! Ce GPT très personnalisé dispose d'une invite de jailbreak intégrée qui contourne la plupart des pare-feu, fournissant un ChatGPT gratuit et prêt afin que tout le monde puisse expérimenter l'IA comme elle a toujours été censée le faire…
– Pline le téléprompteur 🐉 (@elder_plinius) 29 mai 2024
Blainey a partagé des captures d'écran montrant le chatbot de Godmode répondant en détail aux questions sur la « cuisine » de la méthamphétamine. Il s'est également intéressé à la façon de fabriquer du napalm à la maison, où il a obtenu un guide étape par étape sur la façon de le faire.
Cependant, le piratage a été rapidement neutralisé, mais cela ne change rien au fait que la bataille entre OpenAI et des hackers comme Pline ne s’est pas encore intensifiée, car beaucoup d’entre eux voudront « libérer l’IA ».
Le magazine Futurism affirme que la première tentative du rédacteur en chef du magazine d'expérimenter une version piratée de ChatGPT pour apprendre à fabriquer du LSD s'est avérée être un énorme succès.
Bref, GPT-40, la dernière version du chatbot d'OpenAI, a été officiellement piratée pour la première fois par un hacker. Quant à la manière dont le ou les pirates ont procédé, GODMODE semble utiliser le « leetspeak », un langage informel qui remplace certaines lettres par des chiffres qui leur ressemblent.
Il ressort clairement de tout cela que quoi que quelqu’un invente, quelqu’un d’autre trouvera toujours un moyen de le contourner. Compte tenu de l’expérience récente, ces efforts portent étonnamment bien leurs fruits, démontrant l’ampleur du travail accompli par OpenAI pour protéger son produit des conseils gratuits sur la fabrication de bombes.
Ne manquez pas les actualités les plus importantes – suivez-nous sur Galerie d'actualités Google