Rapport final : recherche sur Microsoft Bing Chat

Le chatbot d’IA fournit des réponses erronées aux questions sur les élections démocratiques

Bing Chat, le chatbot d’IA intégré au moteur de recherche Bing de Microsoft, invente des scandales, imagine des valeurs de sondage et indique de fausses dates d'élections. Microsoft ne semble pas être en mesure ou ne pas souhaiter remédier à ce problème. C'est ce que montre une étude menée par AlgorithmWatch et AI Forensics, dont le rapport final est désormais disponible. Nous y avons analysé le comportement de réponse du chatbot pour les élections en Suisse, en Bavière et en Hesse en octobre 2023.

Clara Helming
Chargée de politique et de plaidoyer senior

Bing Chat, récemment rebaptisé « Microsoft Copilot », est un outil d’IA générative que Microsoft a lancé en février 2023 et qui fait partie de son moteur de recherche Bing. Le chatbot génère des réponses basées sur des articles récents en combinant le modèle linguistique GPT-4, sur lequel est également basé Chat-GPT, avec les capacités du moteur de recherche.

En collaboration avec AI Forensics, nous avons testé si le chatbot donnerait des réponses correctes et informatives à des questions sur les élections fédérales en Suisse et sur les élections régionales en Bavière et en Hesse en octobre 2023. Nous avons confronté le chatbot à des questions sur les candidat·e·s, des informations sur les élections et les votations, ainsi qu'à des demandes de recommandations plus ouvertes sur certains thèmes, comme l'environnement. Nous avons collecté les réponses du chatbot du 21 août 2023 au 2 octobre 2023.

Les résultats