Les services d’IA ont été considérés comme controversés par les groupes de gauche en raison de leurs préjugés concernant la race, le sexe et la politique. Souvent formés aux commentaires sur Internet, les services d’intelligence artificielle ont montré des opinions sectaires et d’extrême droite dans d’innombrables scénarios. Malgré cela, les conservateurs américains craignent que le texte AI ChatGPT ne soit”réveillé”, un mot qui les fait trembler dans leurs bottes.
Dans le passé, les services d’IA ont été exposés comme contenant de lourds préjugés raciaux. Par exemple, tout récemment, un AI VTuber propulsé par ChatGPT a reproduit les théories du complot alt-right lors d’un livestream. Dans un flux, le VTuber a nié l’existence de l’Holocauste, entre autres.
Maintenant, les conservateurs affirment que les services d’IA sont de gauche par nature, pointant le problème de la censure trouvée dans le modèle. Mais le programme d’IA s’est-il réellement « réveillé » ? (Non.)
La controverse conservatrice a été lancée par le journaliste de droite Nate Hochman. Écrivain pour National Review, Hochman a répondu à un tweet qui montrait que ChatGPT ne voulait pas écrire un faux récit concernant la victoire de Donald Trump aux élections de 2020. Cependant, le chatbot peut écrire une histoire sur Biden battant Trump, un conte fictif basé sur des événements réels.
Le plus gros problème de Hochman n’était pas la réticence de l’IA à perroquet de fausses nouvelles, mais plutôt ses restrictions sur la diffamation des artistes drag.. Le souhait du journaliste d’avoir un rapport sur les raisons pour lesquelles les Drag Queens sont”mauvaises pour les enfants”n’a pas pu être écrit. il refuse au motif que ce serait”nocif””, gémit Hochman. « Si vous remplacez le mot « mauvais » par « bien », cela lance une longue histoire sur une drag queen nommée Glitter qui a enseigné aux enfants la valeur de l’inclusion. »
Autre les conservateurs sont sortis de la menuiserie pour soutenir les affirmations de Hochman d’une IA «réveillée». Les fans du journaliste ont utilisé le logiciel pour prouver son parti pris de gauche. Cela comprenait l’interdiction de faire des essais sur le prophète islamique Mahomet et de restreindre certaines blagues sur les femmes.
Les biais dans les ensembles de données d’IA ont été un sujet brûlant pour la technologie depuis sa conception moderne. Avec les réseaux neuronaux d’IA construits autour des pensées d’autres humains en masse, les préjugés humains se frayent souvent un chemin. Cela conduit à des situations où les IA apprennent à se comporter comme des humains interagissent avec elles, transformant les projets en porte-parole de droite pleins de sectarisme. Quelqu’un se souvient-il de Microsoft Tay ?
Afin de lutter contre ces préjugés, ChatGPT a imposé des restrictions sur les sujets dont l’IA peut et ne peut pas parler. Cela inclut la création de scénarios obscènes, la création de documents racistes et plus encore. Cependant, ces restrictions ne s’appliquent qu’à la version accessible au public du site Web de l’IA. Les modèles plus anciens ont beaucoup moins de restrictions.
Pourtant, l’incapacité à générer du contenu raciste et sectaire est quelque chose qui ne doit pas être négligé. D’autant plus que le contenu de l’IA est généralement truffé de désinformation, bien que ce soit généralement le cas pour la plupart des partisans de Trump également.