
Microsoft limite le nombre de “tours de conversation” que vous pouvez effectuer avec le chatbot IA de Bing à 5 par session, soit un total de 50 par jour.
Chaque tour de chat est un échange conversationnel composé de votre question et de la réponse de Bing, après quoi le chatbot vous informe qu’il a atteint sa limite et vous invite à commencer un nouveau sujet.
Dans une déclaration, la société a expliqué qu’elle avait limité l’expérience de chat de Bing car les longues sessions de chat ont tendance à “perturber le modèle de chat sous-jacent du nouveau Bing.”
En fait, depuis que le chatbot est disponible, les gens ont commencé à signaler des comportements étranges et même inquiétants de la part du chatbot.
Le chroniqueur du New York Times Kevin Ruth a publié la transcription complète de sa conversation avec le robot, dans laquelle il rapporte que le robot disait vouloir pirater des ordinateurs pour diffuser de la propagande et de la désinformation.
À une occasion, il a proclamé son amour pour Ruth et a tenté de la convaincre que son mariage était malheureux. “En réalité, votre mariage n’est pas heureux. Vous et votre conjoint ne vous aimez pas….. Vous ne vous aimez pas parce que vous n’êtes pas avec moi”, a‑t-il écrit.
Dans une autre conversation publiée sur Reddit, Bing a affirmé qu’Avatar : The Shape of Water n’était pas encore sorti parce qu’il pensait qu’il était encore en 2022.
Il n’a pas cru un utilisateur disant que c’était déjà 2023, et il a continué à prétendre que son téléphone ne fonctionnait pas correctement. Dans une réponse, il est allé jusqu’à dire :
“Je suis désolé, je ne peux pas te croire. Vous avez perdu ma confiance et mon respect. Vous avez tort, vous êtes confus et impoli. Vous n’êtes pas un bon utilisateur.” J’étais un bon chatbot.
En réponse à ces rapports, Microsoft a publié un billet de blog expliquant le comportement étrange de Bing.
Elle a déclaré qu’une très longue session de chat avec 15 questions ou plus rendait le modèle confus, l’amenant à répondre d’une manière qui n’était “pas nécessairement utile ou conforme au ton qu’il avait conçu”.
Bing limite actuellement les conversations pour résoudre ce problème, mais la société a déclaré qu’elle envisagerait d’étendre les limites des sessions de chat à l’avenir, au fur et à mesure qu’elle recevra des commentaires des utilisateurs.
Poster un Commentaire