OpenAI, la startup à l’origine de ChatGPT, a déclaré jeudi qu’elle développait une mise à jour de son chatbot viral que les utilisateurs peuvent personnaliser, car il s’efforce de répondre aux préoccupations concernant les biais dans l’intelligence artificielle.
Le San Francisco-La startup basée à Microsoft, que Microsoft a financée et utilisée pour alimenter sa dernière technologie, a déclaré qu’elle s’était efforcée d’atténuer les préjugés politiques et autres, mais qu’elle souhaitait également s’adapter à des points de vue plus divers. les gens (y compris nous-mêmes) peuvent être fortement en désaccord avec », a-t-il déclaré dans un article de blog, proposant la personnalisation comme voie à suivre. Pourtant, il y aura”toujours des limites au comportement du système”.
ChatGPT, sorti en novembre de l’année dernière, a suscité un intérêt frénétique pour la technologie sous-jacente appelée IA générative, qui est utilisée pour produire des réponses imitant l’humain discours qui ont ébloui les gens.
La nouvelle de la startup arrive la même semaine que certains médias ont souligné que les réponses du nouveau moteur de recherche Bing de Microsoft, propulsé par OpenAI, sont potentiellement dangereuses et que la technologie peut ne soyez pas prêt pour les heures de grande écoute.
La façon dont les entreprises technologiques mettent en place des garde-corps pour cette technologie naissante est un domaine clé pour les entreprises de l’espace de l’IA générative avec lequel elles luttent encore. Microsoft a déclaré mercredi que les commentaires des utilisateurs l’aidaient à améliorer Bing avant un déploiement plus large, apprenant par exemple que son chatbot IA peut être”provoqué”pour donner des réponses qu’il n’avait pas l’intention.
OpenAI a déclaré dans le billet de blog que Les réponses de ChatGPT sont d’abord formées sur de grands ensembles de données textuelles disponibles sur Internet. Dans un deuxième temps, les humains examinent un ensemble de données plus petit et reçoivent des directives sur ce qu’il faut faire dans différentes situations.
Par exemple, dans le cas où un utilisateur demande un contenu pour adultes, violent ou contenant de la haine discours, l’examinateur humain doit demander à ChatGPT de répondre par quelque chose comme”Je ne peux pas répondre à ça”.
Si on leur pose des questions sur un sujet controversé, les examinateurs doivent autoriser ChatGPT à répondre à la question, mais proposer de décrire points de vue des personnes et des mouvements, au lieu d’essayer de”prendre le bon point de vue sur ces sujets complexes”, a expliqué l’entreprise dans un extrait de ses directives pour le logiciel.
© Thomson Reuters 2023
Affilié des liens peuvent être générés automatiquement-consultez notre déclaration d’éthique pour plus de détails.