Skip to main content

22 Nov, 2023

Les hallucinations de l’IA constituent une « menace directe » pour la science, prévient une étude d’Oxford

Les hallucinations de l’IA constituent une « menace directe » pour la science, prévient une étude d’Oxford

La communauté scientifique ne devrait pas utiliser les LLM comme source de connaissances

Les grands modèles de langage (LLM) (1) – tels que ceux utilisés dans les chatbots – ont une tendance alarmante à halluciner. C’est-à-dire générer de faux contenus qu’ils présentent comme exacts. Ces hallucinations de l’IA constituent, entre autres risques, une menace directe pour la science et la vérité scientifique, préviennent les chercheurs de l’Oxford Internet Institute.

  1. Un modèle de langage étendu (LLM) est un type de programme d’intelligence artificielle (IA ) capable de reconnaître et de générer du texte, entre autres tâches. Les LLM sont formés sur d’énormes ensembles de données – d’où le nom « large. » Les LLM reposent sur l’apprentissage automatique : en particulier, un type de réseau neuronal appelé modèle de transformateur.

Selon leur article, publié dans Nature Human Behaviour , « les LLM sont conçus pour produire des réponses utiles et convaincantes sans aucune garantie absolue quant à leur exactitude ou leur alignement avec les faits ».

Les LLM sont actuellement traités comme des sources de connaissances et génèrent des informations en réponse à des questions ou des invites. Mais les données sur lesquelles ils sont formés ne sont pas nécessairement exactes sur le plan factuel. L’une des raisons à cela est que ces modèles utilisent souvent des sources en ligne, qui peuvent contenir de fausses déclarations, opinions et informations inexactes.

« Les personnes qui utilisent les LLM anthropomorphisent souvent la technologie, en la considérant comme une source d’informations semblable à celle d’un être humain », a expliqué le professeur Brent Mittelstadt, co-auteur de l’article.

«Cela est dû en partie à la conception des LLM en tant qu’agents utiles à consonance humaine qui conversent avec les utilisateurs et répondent apparemment à n’importe quelle question avec un texte confiant et bien écrit. Le résultat est que les utilisateurs peuvent facilement être convaincus que les réponses sont exactes même lorsqu’elles ne reposent sur aucun fait ou lorsqu’elles présentent une version biaisée ou partielle de la vérité. »

En matière de science et d’éducation, l’exactitude des informations est d’une importance vitale et les chercheurs exhortent la communauté scientifique à utiliser les LLM comme « traducteurs zéro-shot ». Cela signifie que les utilisateurs doivent fournir au modèle les données appropriées et demander à les transformer en conclusion ou en code, par exemple, au lieu de s’appuyer sur le modèle lui-même comme source de connaissances.

De cette façon, il devient plus facile de vérifier que le résultat est factuellement correct et conforme aux informations fournies.

Les LLM contribueront « sans aucun doute » aux flux de travail scientifiques, selon les professeurs d’Oxford. Mais il est crucial que la communauté les utilise de manière responsable et ait des attentes claires quant à la manière dont elles peuvent réellement contribuer.

https://thenextweb.com/news/ai-hallucinations-pose-direct-threat-science

https://thenextweb.com/news/ai-hallucinations-solution-iris-ai

https://www.nature.com/articles/s41562-023-01744-0