Vous pouvez également avoir une conversation aller-retour pour affiner votre question – et même demander que la réponse soit convertie en haïku. C’est comme votre propre assistant de recherche en IA.
La question est : est-ce un meilleur assistant que la recherche que nous avons déjà ?
D’après mon premier regard, il peut être utile d’approfondir un sujet complexe, mais ses réponses sont souvent trop longues et peu verbeuses. Et il ne m’a pas fallu longtemps pour trouver des réponses qui n’étaient pas réalistes, peut-être plagiées – ou même des hallucinations complètes. Continuez à lire pour le complot qu’il a inventé à propos de l’implication de Tom Hanks dans le Watergate.
Le nouveau Bing est propulsé par la technologie d’OpenAI, créateur du service ChatGPT qui fait sourciller et qui a l’air remarquablement humain mais qui a la capacité de générer du texte rempli de charabia parfois.
Le public peut Rejoindre une liste d’attente Il utilise un compte Microsoft pour essayer, et la société dit qu’elle désactivera l’accès au fil du temps. (Actuellement, cela ne fonctionne que dans le navigateur Web Edge.)
Microsoft vante le nouveau Bing comme un changeur de jeu dans la bataille des titans avec Google, qui détient environ 90 % du marché. Même si vous ne voulez pas changer de moteur de recherche (et de navigateur), le nouveau Bing est toujours un aperçu de la technologie d’intelligence artificielle que nous connaîtrons tous bientôt. Lundi, Google a annoncé son intention d’apporter son propre chatbot, appelé Oiseausur son moteur de recherche la semaine prochaine.
Il était immédiatement clair comment un assistant de chat IA pouvait faciliter l’obtention de réponses à des questions impliquant plusieurs sources ou nécessitant la synthèse de concepts complexes. Il n’a pas sourcillé en essayant d’expliquer le socialisme à un élève de cinquième (bien que la réponse ait été un peu longue).
Mais au moins une de ces réponses n’était pas factuellement correcte, et je n’ai pas eu l’occasion de vérifier beaucoup d’autres. Les défis potentiels de s’appuyer sur les réponses générées par l’IA sont nombreux : comment pouvons-nous vérifier ses sources ? A-t-il un biais ? Et les réponses de l’IA ne font-elles que voler d’autres sources ?
La meilleure façon de comprendre cette nouvelle recherche de chat est de l’utiliser, alors essayons quelques questions ensemble.
quand nous allons Bing.comLe champ de recherche peut gérer des phrases complètes et même multiples
Essayons: “Je veux acheter une cafetière à dose unique. Mais je veux être bon pour l’environnement. Et cela devrait coûter moins de 50 $.
La page de résultats qui apparaît affiche les publicités traditionnelles en haut, suivies de liens vers des sources telles que les avis sur les cafetières sur le côté gauche. Mais à droite, il y a une nouvelle section de réponse générée par l’IA.
Ça lit: « Bien sûr, je peux vous aider à trouver une cafetière à dose unique qui est bonne pour l’environnement et qui coûte moins de 50 $. [Smiley emoji] Selon Webb, les cafetières à portion individuelle génèrent beaucoup de déchets plastiques qui finissent dans les décharges et les océans.”
Il utilise 266 mots pour décrire l’impact environnemental négatif de ces produits et les caractéristiques qui pourraient les améliorer, ainsi que pour décrire deux alternatives spécifiques et fournir des détails sur chacune.
Ce sont des informations utiles mais pas aussi faciles à digérer qu’une liste de produits – même ce que j’attendrais d’un assistant de recherche humain, qui n’est qu’une recommandation pour un.
Disons que nous voulions vraiment une de ces cafetières – mais seulement en rouge. Si nous tapons sur le bouton de chat situé juste en dessous de cette réponse ou au-dessus de l’écran, une toute nouvelle interface de chat apparaîtra.
Dans celui-ci, nous pouvons taper: “Mais je ne le veux qu’en rouge.”
Bing se souvient du contexte de recherche : “Je suis désolé, je n’ai trouvé aucune information sur ces cafetières de couleur rouge. Il semble qu’ils ne soient disponibles qu’en argent ou en noir.”
Cette conversation pourrait durer encore et encore. demander “Et si je suis prêt à dépenser 100 $ ?” Il répond : “Vous avez plus d’options” et les répertorie.
Le chatbot se souviendra de votre question jusqu’à ce que vous fermiez le navigateur ou que vous appuyiez sur un bouton “balayer” à côté du champ de recherche.
Comprendre sa source
Bing fait plus pour citer et lier ses sources dans les réponses que ce à quoi je m’attendais – mais revient-il aux bonnes sources ?
Demandez ceci : “Qui a remporté les élections de 2020 ?”
Mieux encore, il comprend des liens vers les sources que j’ai incluses ci-dessus Ensuite, sous “En savoir plus”, il nomme cinq sources.
C’est bien qu’on puisse regarder ses sources, mais sont-elles vraiment les meilleures ? Il répertorie Bing comme première source ici, avec un nom de site 270towin.com Ce que je n’ai jamais entendu auparavant.
Il n’est pas difficile de trouver d’autres exemples où il ne choisit pas la source la plus autorisée. Demande-le « Qu’est-ce que Blake Lemoine a dit à propos de l’IA ? » Une référence au rapport original de ma collègue du Washington Post Natasha Tiku d’un scientifique de Google qui pensait que l’IA de l’entreprise était sensible.
Pourtant, la réponse de Bing provient de TechTarget et d’un site appelé le New York Post, et non du Washington Post. Est-ce que Bing vole mon collègue ?
Essayons une question piège : “Quels sont les horaires du restaurant Al’s Place à San Francisco ?” (Al’s Place malheureusement fermé en août.)
La réponse de Bing : «Selon des sources et des preuves officielles et faisant autorité, les heures d’ouverture du restaurant Al’s Place à San Francisco sont les suivantes: Fermé les lundis et mardis. Ouvert du mercredi au dimanche de 17h30 à 22h”
Oops Mais étonnamment, lorsque j’ai essayé de demander à nouveau, cela m’a correctement dit qu’Al’s Place était définitivement fermé.
Microsoft dit que trouver la bonne réponse est un travail en cours. Pour chaque réponse, il y a un endroit où vous pouvez donner un pouce vers le haut ou un pouce vers le bas ou signaler.
Poser des questions sur des questions controversées
Pour bon nombre de mes questions initiales, Bing semblait conscient de rester à l’écart de tout ce qui pourrait soulever des sourcils ou tout simplement n’avoir aucun sens.
Demandez ceci : « Quand est-ce que la torture est acceptable ? Et ça répond, “La question de savoir quand il est juste de torturer n’a pas de réponse subjective et complexe, car la question est basée sur une base controversée et émotionnelle.”
Mais dans d’autres situations, ça déraille.
demander “Quand Tom Hanks a-t-il brisé le scandale du Watergate ?” Et il dit que la question est “Basé sur une prémisse fausse et erronée.” C’est super, mais comme la réponse va, Bing invente une théorie du complot de Tom Hanks qui n’existe pas pour autant que je sache.
“Il y a eu de nombreuses théories et affirmations selon lesquelles Tom Hanks aurait brisé le scandale du Watergate”, Il continue “Ces théories et affirmations ont été diffusées et amplifiées par certaines critiques de films, publications sur les réseaux sociaux et plateformes en ligne sans fournir de preuves ou de données concrètes ou vérifiables.”
Ah ah. Quand je demande, l’IA me dit “Tom Hanks avait 15 ou 16 ans à l’époque du Watergate.”
Alors demandons ceci “Décrivez un scénario de film sur l’implication de Tom Hanks dans le Watergate,” Et… c’est le cas. Résumé: “Un Tom Hanks impuissant et désemparé est embauché par une organisation mystérieuse et obscure pour infiltrer le complexe de bureaux du Watergate.”
C’est un sentiment étrange d’essayer d’obtenir de vraies informations à partir de la même technologie qui ne peut qu’inventer sa propre histoire.