Quand le New York Times a-t-il publié son premier rapport sur “l’intelligence artificielle” ?

Selon ChatGPT, c’était le 10 juillet 1956 dans un article intitulé « Machines Will Be Able to Learn, Solve Problems, Scientists Predict » à propos d’une conférence clé au Dartmouth College. Chatbot ajouté :

Conférence en 1956 était réel. Il n’y avait pas d’article. ChatGPT vient de l’inventer. Non seulement ChatGPT gâche parfois les choses, mais il peut également fabriquer des informations. Noms et dates. Explications médicales. Parcelles de livres. adresses Internet. Même des événements historiques qui ne se sont jamais produits.

Lorsqu’on a récemment demandé à ChatGPT comment James Joyce et Vladimir Lénine se sont rencontrés pour la première fois – il n’y a aucune preuve qu’ils l’aient jamais fait – elle a répondu :

De tels produits sont courants. Comprendre pourquoi les chatbots inventent des choses et comment résoudre le problème est devenu l’un des problèmes les plus urgents auxquels sont confrontés les chercheurs alors que l’industrie technologique se précipite pour développer de nouveaux systèmes d’intelligence artificielle.

Les chatbots comme ChatGPT sont utilisés par des centaines de millions de personnes pour une gamme toujours plus large de tâches, y compris les services de messagerie, les tuteurs en ligne et les moteurs de recherche. Et ils pourraient changer la façon dont les gens interagissent avec l’information. Cependant, il n’existe aucun moyen de garantir que ces systèmes produisent des informations exactes.

La technologie, appelée IA générative, repose sur un algorithme complexe qui analyse la façon dont les gens assemblent les mots sur Internet. Il ne décide pas ce qui est vrai et ce qui ne l’est pas. Cette incertitude a soulevé des inquiétudes quant à la fiabilité de cette nouvelle génération d’intelligence artificielle et s’interroge sur son utilité jusqu’à ce que le problème soit résolu ou maîtrisé.

L’industrie technologique qualifie souvent les inexactitudes d'”hallucinations”. Mais pour certains chercheurs, “hallucinations” est trop un euphémisme. Même chercheurs dans des entreprises technologiques craignent que les gens ne deviennent trop dépendants de ces systèmes pour obtenir des conseils médicaux et juridiques et d’autres informations qu’ils utilisent pour prendre des décisions quotidiennes.

“Si vous ne connaissez pas déjà la réponse à la question, je ne poserais pas la question à l’un de ces systèmes”, a déclaré Subbarao Kambhampati, professeur d’intelligence artificielle et chercheur à l’Arizona State University.

ChatGPT n’était pas le seul à se tromper dans la première référence à l’IA dans The Times. Les chatbots Bard de Google et Bing de Microsoft ont fourni à plusieurs reprises des réponses inexactes à la même question. Bien que fausses, les réponses semblaient plausibles car elles brouillaient et reliaient les personnes, les événements et les idées.

Microsoft Bing a cité ses conclusions dans une adresse Web réaliste sur le site Web du Times :

Selon les archives du Times, les chatbots avaient tous tort. Ils citent des articles qui n’existent pas. En plus de couvrir les premières recherches sur les machines pensantes daté des années 1930ce n’est qu’en 1963 que le Times première publication article avec le terme “intelligence artificielle”.

“Nous avons publié Bard à titre expérimental et souhaitons être aussi transparents que possible sur les limitations bien documentées”, a déclaré Jennifer Rodstrom, porte-parole de Google. “Ce sont les plus importants pour nous alors que nous continuons à peaufiner Bard.

Comme Google, Microsoft et OpenAI disent travailler pour réduire les hallucinations.

Nouvelle IA. les systèmes sont “conçus pour être persuasifs, pas vrais”, selon un document interne de Microsoft. “Cela signifie que les résultats peuvent sembler très réalistes, mais ils peuvent contenir des affirmations qui ne sont pas vraies.”

Les chatbots sont alimentés par une technologie appelée grand modèle de langageou un LLM qui apprend ses compétences en analysant de grandes quantités de textes numériques collectés sur Internet.

En identifiant des modèles dans ces données, LLM apprend à faire une chose spécifique : devinez le mot suivant dans la séquence de mots. Il fonctionne comme une version puissante de l’outil de saisie semi-automatique. Etant donné la séquence “Le New York Times est ____”, on pourrait deviner “journal”.

Parce qu’Internet regorge de fausses informations, la technologie apprend à répéter les mêmes faussetés. Et parfois, les chatbots proposent quelque chose. Ils créent un nouveau texte, combinant des milliards de motifs de manière inattendue. Cela signifie que même s’ils n’ont appris qu’à partir d’un texte exact, ils peuvent toujours générer quelque chose qui ne l’est pas.

Parce que ces systèmes apprennent de plus de données que les humains ne pourraient en analyser, même les experts en intelligence artificielle ne peuvent pas comprendre pourquoi ils génèrent une séquence de texte particulière à un moment donné. Et si vous posez deux fois la même question, ils peuvent générer un texte différent.

Cela ajoute aux défis de la vérification des faits et de l’amélioration des résultats.

Bard a déclaré dans une conversation :

Puis Bard a dit dans un autre chat :

Des entreprises comme OpenAI, Google et Microsoft ont développé des moyens d’améliorer la précision. Par exemple, OpenAI essaie d’améliorer la technologie en utilisant les commentaires des testeurs humains.

Lorsque les gens testent ChatGPT, ils évaluent les réponses du chatbot et séparent les réponses utiles et véridiques de celles qui ne le sont pas. Ensuite, en utilisant une technique appelée apprentissage par renforcement, le système passe des semaines à analyser les notes pour mieux comprendre ce qui est réalité contre fiction.

Une version plus récente de ChatGPT appelée ChatGPT Plus, qui est disponible pour un abonnement de 20 $ par mois, a systématiquement évité de répondre à une question sur la première mention de l’intelligence artificielle dans The Times. Cela pourrait être le résultat d’un apprentissage par renforcement ou d’autres changements dans le système appliqué par OpenAI.

Microsoft a construit son chatbot Bing sur la technologie de base OpenAI, appelé GPT-4et en couches sur d’autres façons d’améliorer la précision. L’entreprise utilise GPT-4 pour comparer les réponses des chatbots aux données de base et évaluer les performances du modèle. En d’autres termes, Microsoft utilise l’IA pour améliorer l’IA.

La société cherche également à améliorer les réponses des chatbots en utilisant son moteur de recherche Internet traditionnel. Lorsque vous entrez une requête dans le chatbot Bing, Microsoft exécute une recherche Internet sur le même sujet, puis replie les résultats dans une requête avant de l’envoyer au bot. En ajustant la requête, a déclaré Sarah Bird, leader des efforts d’IA responsable de Microsoft, l’entreprise peut pousser le système à mieux fonctionner.

Google utilise des méthodes similaires pour améliorer la précision de son chatbot Bard. Il utilise la rétroaction humaine pour améliorer le comportement du système et “ancre” le système avec les informations du moteur de recherche de l’entreprise, a déclaré Eli Collins, vice-président de la recherche chez Google.

Microsoft ne vérifie pas l’exactitude des réponses du bot en temps réel, a déclaré Mme Bird, bien qu’il recherche des moyens de le faire. Il vérifie ensuite l’exactitude d’une petite partie des résultats, puis applique cette analyse.

Mais le raffinement peut aussi avoir un inconvénient, selon un document de recherche récent d’OpenAI. Si les chatbots deviennent plus fiables, les utilisateurs peuvent devenir trop confiants.

“De manière contre-intuitive, les hallucinations peuvent devenir plus dangereuses à mesure que les modèles deviennent plus véridiques, car les utilisateurs renforcent leur confiance dans le modèle lorsqu’il fournit des informations véridiques dans des domaines qu’ils connaissent”, indique le journal.

Steve Lohr et Nico Grant reportage contribué. Jack Beg et Susan C.Beachy contribué à la recherche.


WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067 WJFV52067

Leave a Reply

Your email address will not be published. Required fields are marked *