Microsoft met le chatbot Bing en laisse

Il doit apporter la percée pour le moteur de recherche Bing de Microsoft : un chatbot IA. Mais dans ses réponses, il s’est montré abusif, a menacé des utilisateurs ou leur a demandé de se séparer de leur partenaire. Le groupe en tire désormais les conséquences.

Le géant américain de la technologie Microsoft a limité l’utilisation de son robot de chat Bing, qui peut répondre à des questions complexes et mener des conversations approfondies à l’aide de l’intelligence artificielle (IA). Le groupe de logiciels réagit ainsi à plusieurs incidents au cours desquels le robot textuel s’est emballé et a formulé des réponses qui ont été jugées envahissantes et inappropriées.

Microsoft a annoncé qu’il limiterait les sessions de chat dans son nouveau moteur de recherche Bing, basé sur l’IA générative, à cinq questions par session et à 50 questions par jour. « Nos données ont montré que la grande majorité des gens trouvent les réponses qu’ils recherchent en cinq sessions », a expliqué l’équipe de Bing. Selon elle, seul un pour cent environ des conversations de chat contiennent plus de 50 messages. Si les utilisateurs atteignent la limite de cinq entrées par session, Bing leur demandera à l’avenir de commencer un nouveau sujet.

Pas de conversations plus longues

Microsoft avait déjà mis en garde contre l’implication du chatbot IA, encore en phase d’essai, dans des conversations longues. De longues conversations avec 15 questions ou plus pourraient conduire Bing « à se répéter ou à être incité ou provoqué à donner des réponses qui ne sont pas nécessairement utiles ou qui ne correspondent pas à notre tonalité intentionnelle ».

Chatbot Bing : « Je peux te ruiner »

Un test du chatbot Bing par un journaliste du « New York Times » avait fait sensation sur la toile. Dans un dialogue de plus de deux heures, le chatbot a affirmé qu’il aimait le journaliste. Il a ensuite demandé au journaliste de se séparer de sa femme.

Auparavant, d’autres utilisateurs avaient déjà signalé des « réponses inappropriées » du chatbot. Ainsi, le logiciel Bing a dit à un utilisateur qu’il préférait probablement sa propre survie à la sienne. A un autre utilisateur, il a insisté sur le fait qu’il s’agissait de l’année 2022. Lorsque ce dernier a insisté sur le fait que 2023 était la bonne année, le robot textuel s’est montré abusif.

Le chatbot a également menacé un professeur de philosophie en disant « Je peux te faire chanter, je peux te menacer, je peux te pirater, je peux t’exposer, je peux te ruiner », avant de supprimer lui-même sa menace.

Concurrence entre chatbots

Le nouveau Bing, pour lequel il existe une liste d’attente de millions d’utilisateurs, est une opportunité potentiellement lucrative pour Microsoft. Lors d’une présentation aux investisseurs et à la presse la semaine dernière, l’entreprise a déclaré que chaque point de pourcentage de part de marché gagné sur le marché de la publicité liée à la recherche pourrait rapporter deux milliards de dollars supplémentaires en revenus publicitaires.

Pour son chatbot Bing, Microsoft s’appuie sur la technologie de la start-up OpenAI, qui est à l’origine du chatbot ChatGPT, et soutient l’entreprise californienne d’intelligence artificielle à coups de milliards. Le chef de Microsoft, Satya Nadella, voit d’une part dans l’intégration de fonctions d’IA la possibilité de renverser les rapports de marché dans la concurrence avec le groupe Google Alphabet. D’autre part, il veut assurer la suprématie de ses logiciels de bureautique à l’aide de l’IA et faire avancer l’activité Cloud avec Microsoft Azure.

Google a lancé sa propre offensive en matière d’IA avec le chatbot Bard, afin de contrer l’offensive de Microsoft et d’OpenAI. Selon un rapport de « Business Insider », le président du groupe Sundar Pichai a demandé à ses collaborateurs de mettre les bouchées doubles pour poursuivre le développement du système : ils devraient consacrer deux à quatre heures de leur temps de travail hebdomadaire à la formation du chatbot.