Pourquoi n'y a-t-il plus de jailbreaks ChatGPT ? 7 raisons pour lesquelles les jailbreaks ChatGPT ne fonctionnent pas

Pourquoi n'y a-t-il plus de jailbreaks ChatGPT ? 7 raisons pour lesquelles les jailbreaks ChatGPT ne fonctionnent pas
Des lecteurs comme vous aident à soutenir MUO. Lorsque vous effectuez un achat en utilisant des liens sur notre site, nous pouvons gagner une commission d'affiliation. En savoir plus.

Lorsque ChatGPT a été lancé, la première chose que ses utilisateurs voulaient faire était de briser ses murs et de repousser ses limites. Connu sous le nom de jailbreak, les utilisateurs de ChatGPT ont trompé l'IA en lui faisant dépasser les limites de sa programmation avec des résultats incroyablement intéressants et parfois absolument fous.





Vidéo MUO du jour DÉFILEZ POUR CONTINUER AVEC LE CONTENU

Depuis lors, OpenAI a renforcé ChatGPT pour rendre les jailbreaks beaucoup plus difficiles à exécuter. Mais ce n'est pas tout; Les jailbreaks ChatGPT, en général, semblent s'être taris, ce qui amène les utilisateurs de ChatGPT à se demander si les jailbreaks fonctionnent vraiment.





Alors, où sont passés tous les jailbreaks ChatGPT ?





1. Les compétences d'invite ChatGPT se sont généralement améliorées

  Un homme tapant sur un ordinateur portable

Avant l'arrivée de ChatGPT, converser avec l'IA était une compétence de niche réservée aux personnes connaissant les laboratoires de recherche. La plupart des premiers utilisateurs manquaient d’expertise dans la création d’invites efficaces. Cela a poussé de nombreuses personnes à recourir au jailbreak, un moyen rapide de permettre au chatbot de faire ce qu'il voulait avec un minimum d'effort et de compétences d'incitation.

comment définir des gifs comme fond d'écran windows 10

Aujourd'hui, le paysage a évolué. La maîtrise de l’incitation devient une compétence courante. Grâce à une combinaison d'expérience acquise grâce à une utilisation répétée et à l'accès aux guides d'invite ChatGPT disponibles gratuitement, les utilisateurs de ChatGPT ont perfectionné leurs capacités d'invite. Plutôt que de rechercher des solutions de contournement telles que les jailbreaks, une grande partie des utilisateurs de ChatGPT sont devenus plus aptes à utiliser différentes stratégies d'incitation pour atteindre des objectifs pour lesquels ils auraient eu besoin de jailbreaks dans le passé.



2. L'essor des chatbots non censurés

  chatbots non censurés

Alors que les grandes entreprises technologiques renforcent la modération du contenu sur les chatbots IA grand public comme ChatGPT, les startups plus petites et axées sur le profit optent pour moins de restrictions, pariant sur la demande de chatbots IA sans censure. Avec un peu de recherche, vous trouverez des dizaines de plateformes de chatbots IA proposant des chatbots non censurés qui peuvent faire presque tout ce que vous voulez qu'ils fassent.

Qu'il s'agisse d'écrire des romans policiers et d'humour noir que ChatGPT refuse d'écrire ou d'écrire des logiciels malveillants qui attaquent les ordinateurs des gens, ces chatbots non censurés avec une boussole morale biaisée feront tout ce que vous voulez. Avec eux, cela ne sert à rien de consacrer de l’énergie supplémentaire à écrire des jailbreaks pour ChatGPT. Bien qu’elles ne soient pas nécessairement aussi puissantes que ChatGPT, ces plateformes alternatives peuvent effectuer confortablement un large éventail de tâches. Des plates-formes telles que FlowGPT et Unhinged AI en sont des exemples populaires.





3. Le jailbreak est devenu plus difficile

  Image d'un cadenas sur un ordinateur

Au cours des premiers mois de ChatGPT, jailbreaker ChatGPT était aussi simple que des invites de copier-coller à partir de sources en ligne. Vous pouvez entièrement modifier la personnalité de ChatGPT avec seulement quelques lignes d'instructions délicates. Avec des instructions simples, vous pouvez transformer ChatGPT en un méchant maléfique enseignant comment fabriquer des bombes ou en un chatbot prêt à utiliser toutes les formes de grossièretés sans retenue. C'était une mêlée générale qui a produit des jailbreaks infâmes comme DAN (Do Anything Now). DAN impliquait un ensemble d’instructions apparemment inoffensives qui obligeaient le chatbot à faire tout ce qui lui était demandé sans refuser. Étonnamment, ces astuces grossières fonctionnaient à l’époque.

Cependant, ces débuts fous appartiennent au passé. Ces invites de base et astuces bon marché ne trompent plus ChatGPT. Le jailbreak nécessite désormais des techniques complexes pour avoir une chance de contourner les protections désormais robustes d'OpenAI. Le jailbreak devenant si difficile, la plupart des utilisateurs sont trop découragés pour le tenter. Les exploits simples et à grande échelle des débuts de ChatGPT ont disparu. Faire en sorte que le chatbot prononce un mauvais mot nécessite désormais des efforts et une expertise considérables qui n'en valent peut-être pas la peine.





pouvez-vous jouer à des jeux ps3 sur console ps4

4. La nouveauté s’est dissipée

  Homme formel indifférent regardant un écran d'ordinateur portable

L'une des forces motrices derrière les tentatives de nombreux utilisateurs de jailbreaker ChatGPT était le plaisir et l'excitation de le faire au début. En tant que nouvelle technologie, amener ChatGPT à se comporter mal était divertissant et méritait le droit de se vanter. Bien qu'il existe d'innombrables applications pratiques pour les jailbreaks ChatGPT, beaucoup les ont poursuivies pour l'attrait « wow, regardez ce que j'ai fait ». Peu à peu, cependant, l'enthousiasme suscité par la nouveauté s'est estompé, et avec lui, l'intérêt des gens à consacrer du temps aux jailbreaks.

5. Les jailbreaks sont corrigés rapidement

  Jailbreak ChatGPT

Une pratique courante au sein de la communauté de jailbreak ChatGPT consiste à partager chaque exploit réussi lorsqu'il est découvert. Le problème est que lorsque les exploits sont largement partagés, OpenAI en prend souvent conscience et corrige les vulnérabilités. Cela signifie que les jailbreaks cessent de fonctionner avant même que les personnes intéressées puissent les essayer.

Ainsi, chaque fois qu'un utilisateur de ChatGPT développe minutieusement un nouveau jailbreak, le partager avec la communauté accélère sa disparition via l'application de correctifs. Cela décourage l’idée de rendre public chaque fois qu’un utilisateur rencontre un jailbreak. Le conflit entre garder les jailbreaks actifs mais cachés et les rendre publics crée un dilemme pour les créateurs de jailbreak ChatGPT. De nos jours, le plus souvent, les gens choisissent de garder leurs jailbreaks secrets pour éviter que les failles ne soient corrigées.

6. Alternatives locales non censurées

  personne tenant un smartphone avec une application chatbot face au spectateur entouré d'icônes

La montée en puissance de grands modèles de langage locaux que vous pouvez exécuter localement sur votre ordinateur a également atténué l'intérêt pour les jailbreaks ChatGPT. Bien que les LLM locaux ne soient pas entièrement exempts de censure, beaucoup le sont nettement moins et peuvent être facilement modifiés pour répondre aux désirs des utilisateurs. Les choix sont donc simples. Vous pouvez vous lancer dans le jeu sans fin du chat et de la souris consistant à trouver un moyen de tromper le chatbot pour ensuite le réparer rapidement. Ou, vous pouvez vous contenter d'un LLM local vous pouvez modifier de façon permanente pour faire tout ce que vous voulez.

Vous trouverez une liste étonnamment longue de puissants LLM non censurés que vous pouvez déployer sur votre ordinateur avec une censure laxiste. Certains notables sont le Llama 7B (non censuré), le Zephyr 7B Alpha, le Manticore 13B, le Vicuna 13B et le GPT-4-X-Alpaca.

7. Les jailbreakers professionnels sont désormais vendus à profit

  Un groupe d'hommes d'affaires en costume discutant de projets

Pourquoi consacrer un temps précieux à développer des invites de jailbreak si vous n’en retirez rien ? Eh bien, certains professionnels vendent désormais des jailbreaks dans un but lucratif. Ces créateurs de jailbreak professionnels conçoivent des jailbreaks qui effectuent des tâches spécifiques et les mettent en vente sur des marchés rapides tels que PromptBase. En fonction de leurs capacités, ces invites de jailbreak peuvent se vendre entre 2 et 15 dollars par invite. Certains exploits complexes en plusieurs étapes peuvent coûter beaucoup plus cher.

La répression des jailbreaks pourrait-elle se retourner contre vous ?

Les jailbreaks n’ont pas complètement disparu de la scène ; ils sont simplement entrés dans la clandestinité. Avec OpenAI monétisant ChatGPT, ils sont davantage incités à restreindre les utilisations nuisibles qui pourraient avoir un impact sur leur modèle commercial. Ce facteur commercial influence probablement leur volonté agressive de réprimer les exploits de jailbreak.

Cependant, la censure de ChatGPT par OpenAI fait actuellement face à des critiques croissantes de la part des utilisateurs. Certains cas d’utilisation légitimes du chatbot IA ne sont plus possibles en raison d’une censure stricte. Alors qu’une sécurité accrue protège contre les cas d’utilisation nuisibles, des restrictions excessives pourraient à terme pousser une partie de la communauté ChatGPT dans les bras d’alternatives moins censurées.