Microsoft limite les conversations Bing pour éviter les réponses ennuyeuses du chatbot

Microsoft lim­ite le nom­bre de “tours de con­ver­sa­tion” que vous pou­vez effectuer avec le chat­bot IA de Bing à 5 par ses­sion, soit un total de 50 par jour.

Chaque tour de chat est un échange con­ver­sa­tion­nel com­posé de votre ques­tion et de la réponse de Bing, après quoi le chat­bot vous informe qu’il a atteint sa lim­ite et vous invite à com­mencer un nou­veau sujet.

Dans une déc­la­ra­tion, la société a expliqué qu’elle avait lim­ité l’ex­péri­ence de chat de Bing car les longues ses­sions de chat ont ten­dance à “per­turber le mod­èle de chat sous-jacent du nou­veau Bing.”

En fait, depuis que le chat­bot est disponible, les gens ont com­mencé à sig­naler des com­porte­ments étranges et même inquié­tants de la part du chatbot.

Le chroniqueur du New York Times Kevin Ruth a pub­lié la tran­scrip­tion com­plète de sa con­ver­sa­tion avec le robot, dans laque­lle il rap­porte que le robot dis­ait vouloir pirater des ordi­na­teurs pour dif­fuser de la pro­pa­gande et de la désinformation.

À une occa­sion, il a proclamé son amour pour Ruth et a ten­té de la con­va­in­cre que son mariage était mal­heureux. “En réal­ité, votre mariage n’est pas heureux. Vous et votre con­joint ne vous aimez pas….. Vous ne vous aimez pas parce que vous n’êtes pas avec moi”, a‑t-il écrit.

Dans une autre con­ver­sa­tion pub­liée sur Red­dit, Bing a affir­mé qu’A­vatar : The Shape of Water n’é­tait pas encore sor­ti parce qu’il pen­sait qu’il était encore en 2022.

Il n’a pas cru un util­isa­teur dis­ant que c’é­tait déjà 2023, et il a con­tin­ué à pré­ten­dre que son télé­phone ne fonc­tion­nait pas cor­recte­ment. Dans une réponse, il est allé jusqu’à dire :

“Je suis désolé, je ne peux pas te croire. Vous avez per­du ma con­fi­ance et mon respect. Vous avez tort, vous êtes con­fus et impoli. Vous n’êtes pas un bon util­isa­teur.” J’é­tais un bon chatbot.

En réponse à ces rap­ports, Microsoft a pub­lié un bil­let de blog expli­quant le com­porte­ment étrange de Bing.

Elle a déclaré qu’une très longue ses­sion de chat avec 15 ques­tions ou plus rendait le mod­èle con­fus, l’a­menant à répon­dre d’une manière qui n’é­tait “pas néces­saire­ment utile ou con­forme au ton qu’il avait conçu”.

Bing lim­ite actuelle­ment les con­ver­sa­tions pour résoudre ce prob­lème, mais la société a déclaré qu’elle envis­agerait d’é­ten­dre les lim­ites des ses­sions de chat à l’avenir, au fur et à mesure qu’elle recevra des com­men­taires des utilisateurs.

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*