Si vous ne pensez pas que le lancement rapide de chatbots alimentés par l’IA par Big Tech a de très fortes chances de saper l’écosystème de l’information du Web, considérez ce qui suit :
À l’heure actuelle, * si vous demandez au chatbot Bing de Microsoft si le chatbot Bard de Google a été fermé, il répond oui, citant un article de presse comme preuve. tweeter Où l’utilisateur cool a demandé quand Il sera fermé, et Bard a dit que c’était déjà le cas, se citant comme une commentaire De Hacker News où quelqu’un plaisanté à propos de cet événement, et quelqu’un d’autre a utilisé ChatGPT pour écrire une fausse couverture médiatique de l’événement.
(* Je dis “maintenant” parce qu’entre le début et la fin de l’écriture de cette histoire, Bing a changé sa réponse et répond maintenant correctement que Bard est toujours en vie. Vous pouvez interpréter cela comme montrant que ces systèmes sont, au moins, récupérables ou Il est si flexible qu’il est impossible de signaler constamment ses erreurs.)
Mais si lire tout cela vous a blessé, cela doit vous blesser – et à plus d’un titre.
Ce que nous avons ici est un signe précoce que nous sommes coincés dans un jeu massif de désinformation par téléphone intelligent, dans lequel les chatbots ne parviennent pas à évaluer les sources d’information fiables, interprètent mal les histoires sur eux-mêmes et dénaturent leurs propres capacités. Dans ce cas, tout a commencé à cause d’un seul commentaire de blague sur Hacker News. Imaginez ce que vous pourriez faire si vous étiez requis Ces systèmes échouent.
C’est une situation risible aux conséquences graves. Incapable de trier de manière fiable les faits par des modèles de langage d’IA, les publier en ligne menace de déclencher un cercle vicieux de désinformation et de méfiance sur le Web, une faille qu’il est impossible de quantifier complètement ou de démystifier formellement. Tout cela parce que Microsoft, Google et OpenAI ont décidé que la part de marché est plus importante que la sécurité.
Ces entreprises peuvent mettre autant de clauses de non-responsabilité qu’elles le souhaitent sur leurs chatbots – nous disant qu’il s’agit d'”expériences”, de “collaborations” et certainement pas de moteurs de recherche – mais c’est une défense faible. Nous savons comment les gens utilisent ces systèmes, et nous avons déjà vu comment ils propagent la désinformation, qu’elle soit inventée Nouvelles histoires jamais écrites ou en parler aux gens Livres introuvables. Et maintenant, ils citent aussi les erreurs de l’autre.