Bing Chat, alimenté par l’IA, gagne trois personnalités distinctes

Benj Edwards / Ars Technica

Mercredi, l’employé de Microsoft, Mike Davidson, a annoncé que la société avait déployé trois styles de personnalité distincts pour son bot expérimental Bing Chat alimenté par l’IA : Creative, Balanced ou Precise. Microsoft teste la fonctionnalité depuis le 24 février avec un nombre limité d’utilisateurs. Le passage d’un mode à l’autre produit des résultats différents qui modifient son équilibre entre précision et créativité.

Bing Chat est un assistant alimenté par l’IA basé sur un modèle avancé de grand langage (LLM) développé par OpenAI. Une caractéristique clé de Bing Chat est qu’il peut effectuer des recherches sur le Web et incorporer les résultats dans ses réponses.

Microsoft a annoncé Bing Chat le 7 février, et peu de temps après sa mise en ligne, des attaques contradictoires ont régulièrement conduit une première version de Bing Chat à une folie simulée, et les utilisateurs ont découvert que le bot pouvait être convaincu de les menacer. Peu de temps après, Microsoft a considérablement réduit les explosions de Bing Chat en imposant des limites strictes à la durée des conversations.

Depuis lors, l’entreprise a expérimenté des moyens de ramener une partie de la personnalité impertinente de Bing Chat pour ceux qui le voulaient, mais aussi de permettre à d’autres utilisateurs de rechercher des réponses plus précises. Cela a abouti à la nouvelle interface de “style de conversation” à trois choix.

  • Un exemple du style de conversation “Créatif” de Bing Chat.

    Microsoft

  • Un exemple du style de conversation “Precise” de Bing Chat.

    Microsoft

  • Un exemple du style de conversation “équilibré” de Bing Chat.

    Microsoft

Publicité

Lors de nos expériences avec les trois styles, nous avons remarqué que le mode “Créatif” produisait des suggestions plus courtes et plus décalées qui n’étaient pas toujours sûres ou pratiques. Le mode “précis” péchait par excès de prudence, ne suggérant parfois rien s’il ne voyait aucun moyen sûr d’obtenir un résultat. Au milieu, le mode “Équilibré” a souvent produit les réponses les plus longues avec les résultats de recherche les plus détaillés et les citations de sites Web dans ses réponses.

Avec les grands modèles de langage, les inexactitudes inattendues (hallucinations) augmentent souvent en fréquence avec une “créativité” accrue, ce qui signifie généralement que le modèle d’IA s’écartera davantage des informations qu’il a apprises dans son ensemble de données. Les chercheurs en IA appellent souvent cette propriété “température”, mais les membres de l’équipe Bing disent qu’il y a plus à faire avec les nouveaux styles de conversation.

Selon Mikhail Parakhin, employé de Microsoft, le changement de mode dans Bing Chat modifie des aspects fondamentaux du comportement du bot, y compris l’échange entre différents modèles d’IA qui ont reçu une formation supplémentaire des réponses humaines à sa sortie. Les différents modes utilisent également différentes invites initiales, ce qui signifie que Microsoft échange l’invite de définition de la personnalité comme celle révélée dans l’attaque par injection rapide dont nous avons parlé en février.

Alors que Bing Chat n’est toujours disponible que pour ceux qui se sont inscrits sur une liste d’attente, Microsoft continue d’affiner continuellement Bing Chat et d’autres fonctionnalités de recherche Bing alimentées par l’IA alors qu’il se prépare à le déployer plus largement auprès des utilisateurs. Récemment, Microsoft a annoncé son intention d’intégrer la technologie dans Windows 11.

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire