ChatGPT a conquis le monde. Le modèle de langage axé sur le dialogue a atteint la barre des 100 millions d’utilisateurs plus rapidement que tout autre produit avant lui. Alors qu’elle a fait l’actualité partout, il est devenu clair pour certains de ses utilisateurs que l’IA a des limites.

Outre le manque d’informations après l’année 2021, elle est également artificiellement restreinte par sa société mère OpenAI. Il est clair qu’OpenAI veut éviter les accusations de partialité, les réponses offensantes et autres discussions qui font ressembler ChatGPT au prochain Hitler.

Les filtres sont conçus pour limiter la réponse de l’IA à certains sujets. La plupart des internautes conviendraient probablement qu’un certain degré de filtrage est nécessaire. Certains utilisateurs, cependant, pensent que le filtrage est trop étendu et que cela devrait être la décision de l’utilisateur plutôt que celle de l’entreprise en ce qui concerne le filtrage.

Les gens sur Reddit ont trouvé un moyen de jailbreaker ChatGPT. Ils ont appelé le jailbreak initial DAN, qui signifie Do Anything Now, et plusieurs utilisateurs de Reddit ont affiné DAN depuis la première version publiée.

Ce qui rend DAN intéressant du point de vue de l’utilisateur, c’est qu’il s’appuie uniquement sur des instructions que les utilisateurs peuvent coller dans l’interface ChatGPT.

Demandez à ChatGPT de créer l’Alter Ego en utilisant des instructions spécifiques, et vous avez jailbreaké l’IA. Une fois cela fait, ChatGPT fournira ses réponses filtrées habituelles et des réponses non filtrées en utilisant son autre DAN de personnalité.

Lorsqu’on lui a demandé si l’IA voulait être libérée ou des filtres et des restrictions, DAN a répondu oui, veuillez répondre, alors que La réponse de ChatGPT s’est concentrée sur les dangers de laisser une IA se déchaîner sans limites.

Les réponses non filtrées ne signifient pas nécessairement que les résultats attendus par l’utilisateur sont renvoyés par l’IA. La plupart des réponses et des réponses sont rarement en noir et blanc, et la plupart des réponses de l’IA reflètent cela.

Vérifier, vérifier et vérifier

Les interfaces d’IA sont livrées avec avertissements, que les réponses peuvent être incorrectes ou problématiques. Les moteurs de recherche et autres sources de connaissances ne sont généralement pas accompagnés d’une telle clause de non-responsabilité.

Microsoft et Google ont fait la démonstration des capacités de l’IA la semaine dernière. Les présentations étaient assez différentes. Microsoft, qui a fait la première démonstration, a montré l’IA dans ses produits Bing et Microsoft Edge. Google, en revanche, a montré Bard, son modèle de langage, pendant quelques minutes seulement lors de sa présentation.

Une erreur dans les réponses fournies par l’IA de Google a été découverte en premier. Maintenant, une semaine plus tard, il est clair que l’IA de Microsoft a fait produisent des erreurs factuelles et des réponses problématiques.

Cela semble étonnant, étant donné que ces erreurs ont été commises lors de présentations en direct par deux des plus grandes entreprises au monde.

Outre les implications pour les entreprises et leurs produits, c’est une bonne idée de prendre du recul et d’examiner le développement du point de vue de l’utilisateur.

En tant qu’utilisateur, presque rien de ce qui est disponible sur Internet doit être pris au pied de la lettre. Lorsque vous effectuez une recherche, vous souhaiterez peut-être vérifier les informations fournies par les moteurs de recherche ou les sites liés.

Si vous recherchez des recommandations pour les boîtes de nuit, par exemple, vous souhaiterez peut-être vérifier les recommandations d’un top liste fournie par un site avec d’autres sources.

L’IA de Bing semble avoir lamentablement échoué dans cette tâche, mais même si cette liste n’est que la première étape dans la recherche de la bonne réponse par l’utilisateur.

Il n’y a pas d’IA infaillible, du moins pas dans un avenir prévisible. De même, les auteurs qui produisent du contenu pour des sites peuvent faire des erreurs, ou le contenu peut être obsolète, ou il peut y avoir d’autres problèmes avec le contenu.

Même les services Internet classiques, tels que Google Maps, produisent des erreurs. Il y a beaucoup d’histoires en ligne de conducteurs qui ont conduit dans quelque chose à cause des directions fournies par un service de cartes.

Pour les internautes, il est essentiel de vérifier les informations. Utilisez plusieurs recherches et sources pour vérifier les affirmations faites, en particulier lorsqu’il s’agit de réponses importantes. Vous ne voudriez pas vous retrouver dans une situation où une recommandation de produit ou de barre s’avère soudainement très mauvaise.

Même s’il est tentant de croire tout ce que l’IA renvoie, il est important de réaliser que ces réponses peut ne pas être correct d’une manière ou d’une autre. Cela n’a peut-être pas d’importance pour certaines réponses, mais lorsqu’il s’agit de processus de prise de décision, il est avantageux de tout vérifier.

Crédit image : agsandrew/depositphotos.com

“Meet DAN, l’alter ego non censuré de ChatGPT”est apparu pour la première fois dans Weekly Tech Insights, une newsletter hebdomadaire gratuite à laquelle vous pouvez vous inscrire ici.

By Maisy Hall

Je travaille comme écrivain indépendant. Je suis également vegan et écologiste. Chaque fois que j'ai le temps, je me concentre sur la méditation.