Microsoft a annoncé qu’il limite la possibilité pour les utilisateurs de discuter avec le chatbot intégré à la nouvelle version du moteur de recherche Bing. Cette décision intervient après qu’un journaliste a accusé le chatbot de mensonges, d’agression et de communication inadéquate. Le réseau de neurones ne pourra désormais répondre qu’à cinquante questions d’utilisateurs par jour et seulement cinq par session.
Bing a déclaré dans un blog post,”Nos données ont montré que la grande majorité d’entre vous trouve le réponses que vous recherchez dans les 5 tours et que seulement ~ 1% des conversations de chat ont plus de 50 messages. Après qu’une session de chat ait atteint 5 tours, vous serez invité à démarrer un nouveau sujet. En conséquence, Bing démarrera une nouvelle conversation chaque fois que les utilisateurs dépasseront la limite fixée de cinq sessions.
Microsoft signale que des sessions de chat prolongées avec 15 questions ou plus pourraient rendre Bing”devenu répétitif ou être invité/incité à donner des réponses qui ne sont pas nécessairement utiles ou conformes à notre ton conçu./2023/02/Limits-AI-Chatbot-Capabilities-in-Bing-696×365.jpg”>
La limitation des capacités du chatbot IA survient après des rapports de conversations déséquilibrées avec les utilisateurs, y compris la manipulation émotionnelle et les réponses bizarres. Microsoft tente toujours d’améliorer le ton de Bing, bien que l’on ne sache pas combien de temps ces limites resteront.
L’accès à Bing AI reste limité et les utilisateurs sont invités à saisir leur adresse e-mail sur la liste d’attente pour le lancement officiel.. Malgré ces limitations, la fonction de chat de Bing continue de s’améliorer quotidiennement, avec des problèmes techniques résolus et des correctifs hebdomadaires pour améliorer la recherche et les réponses.