Qu'est-ce que l'hallucination par IA et comment la repérer ?

Qu'est-ce que l'hallucination par IA et comment la repérer ?
Des lecteurs comme vous aident à soutenir MUO. Lorsque vous effectuez un achat en utilisant des liens sur notre site, nous pouvons gagner une commission d'affiliation. En savoir plus.

L'hallucination de l'intelligence artificielle (IA) semble perplexe. Vous pensez probablement : « L'hallucination n'est-elle pas un phénomène humain ? Eh bien, oui, c'était un phénomène uniquement humain jusqu'à ce que l'IA commence à présenter des caractéristiques humaines telles que la reconnaissance faciale, l'auto-apprentissage et la reconnaissance vocale.





UTILISEZ LA VIDÉO DU JOUR FAITES DÉFILER POUR CONTINUER AVEC LE CONTENU

Malheureusement, l'IA a pris certains attributs négatifs, y compris des hallucinations. Alors, l'hallucination de l'IA est-elle similaire au type d'hallucination que les humains éprouvent ?





Qu'est-ce que l'hallucination par IA ?

L'hallucination de l'intelligence artificielle se produit lorsqu'un modèle d'IA génère des sorties différentes de ce qui est attendu. Notez que certains modèles d'IA sont formés pour générer intentionnellement des sorties sans rapport avec aucune entrée (données) du monde réel.





Par exemple, meilleurs générateurs de texte à l'art AI , tels que DALL-E 2, peuvent générer de manière créative de nouvelles images que nous pouvons étiqueter comme 'hallucinations' car elles ne sont pas basées sur des données du monde réel.

Hallucination de l'IA dans les grands modèles de traitement du langage

Considérons à quoi ressemblerait l'hallucination de l'IA dans un grand modèle de traitement du langage tel que ChatGPT. Une hallucination ChatGPT aurait pour conséquence que le bot vous donnerait un fait incorrect avec une affirmation, de sorte que vous considéreriez naturellement ces faits comme la vérité.



En termes simples, il s'agit de déclarations inventées par le chatbot artificiellement intelligent. Voici un exemple :

  ChatGPT's response to where Elon Musk's house is located

Sur une autre requête, ChatGPT est apparu avec ceci :





  Une invite ChatGPT demandant plus loin où Elon Musk's factory is at in brazil

Hallucination de l'IA dans la vision par ordinateur

Considérons un autre domaine de l'IA qui peut subir des hallucinations d'IA : Vision par ordinateur . Le quiz ci-dessous montre un montage 4x4 avec deux entités qui se ressemblent tellement. Les images sont un mélange de croustilles et de feuilles de barbecue.

Le défi consiste à sélectionner les chips sans toucher aucune feuille dans le montage. Cette image peut sembler délicate à un ordinateur, et il pourrait être incapable de faire la différence entre les croustilles et les feuilles de barbecue.





  Un montage 4x4 de croustilles et de feuilles de BBQ

Voici un autre montage avec un mélange d'images de chignon de caniche et de fil de porc. Un ordinateur serait très probablement incapable de les différencier, mélangeant ainsi les images.

  Un montage 4x4 d'un caniche et d'un petit pain de soie de porc

Pourquoi l'IA Hallucination se produit-elle ?

L'hallucination de l'IA peut se produire en raison d'exemples contradictoires - des données d'entrée qui incitent une application d'IA à les classer de manière erronée. Par exemple, lors de la formation d'applications d'IA, les développeurs utilisent des données (image, texte ou autres) ; si les données sont modifiées ou déformées, l'application interprète l'entrée différemment, donnant une sortie erronée.

En revanche, un humain peut toujours reconnaître et identifier les données avec précision malgré les distorsions. Nous pouvons qualifier cela de bon sens - un attribut humain que l'IA ne possède pas encore. Regardez comment l'IA est trompée par des exemples contradictoires dans cette vidéo :

En ce qui concerne les grands modèles basés sur le langage tels que ChatGPT et ses alternatives , des hallucinations peuvent résulter d'un décodage inexact du transformateur (modèle d'apprentissage automatique).

En IA, un transformateur est un modèle d'apprentissage en profondeur qui utilise l'auto-attention (relations sémantiques entre les mots d'une phrase) pour produire un texte similaire à ce qu'un humain écrirait à l'aide d'une séquence encodeur-décodeur (entrée-sortie).

Ainsi, les transformateurs, un modèle d'apprentissage automatique semi-supervisé, peuvent générer un nouveau corps de texte (sortie) à partir du vaste corpus de données textuelles utilisées dans sa formation (entrée). Il le fait en prédisant le mot suivant dans une série basée sur les mots précédents.

En ce qui concerne l'hallucination, si un modèle de langage a été formé sur des données et des ressources insuffisantes et inexactes, on s'attend à ce que la sortie soit inventée et inexacte. Le modèle de langage peut générer une histoire ou un récit sans incohérences logiques ni connexions peu claires.

l'icône de la batterie ne s'affiche pas dans la barre des tâches

Dans l'exemple ci-dessous, ChatGPT a été invité à donner un mot similaire à 'révolte' et commençant par un 'b'. Voici sa réponse :

  Capture d'écran de ChatGPT donnant de mauvaises réponses à une question

En approfondissant, il a continué à donner de mauvaises réponses, avec un niveau de confiance élevé.

  Capture d'écran de ChatGPT donnant plusieurs mauvaises réponses à une invite

Alors pourquoi ChatGPT est-il incapable de donner une réponse précise à ces invites ?

Il se peut que le modèle de langage ne soit pas équipé pour gérer des invites plutôt complexes comme celles-ci ou qu'il ne puisse pas interpréter l'invite avec précision, ignorant l'invite en donnant un mot similaire avec un alphabet spécifique.

Comment repérer l'hallucination de l'IA ?

Il est maintenant évident que les applications d'IA ont le potentiel d'halluciner, c'est-à-dire de générer des réponses autrement à partir de la sortie attendue (fait ou vérité) sans aucune intention malveillante. Et repérer et reconnaître les hallucinations de l'IA appartient aux utilisateurs de ces applications.

Voici quelques façons de repérer les hallucinations de l'IA lors de l'utilisation d'applications d'IA courantes :

1. Grands modèles de traitement du langage

  Image montrant Bing Chat et ChatGPT sur un signal fléché

Bien que rare, si vous remarquez une erreur grammaticale dans le contenu produit par un grand modèle de traitement, tel que ChatGPT, cela devrait soulever un sourcil et vous faire suspecter une hallucination. De même, lorsque le contenu généré par du texte ne semble pas logique, ne correspond pas au contexte donné ou ne correspond pas aux données d'entrée, vous devez suspecter une hallucination.

L'utilisation du jugement humain ou du bon sens peut aider à détecter les hallucinations, car les humains peuvent facilement identifier quand un texte n'a pas de sens ou ne suit pas la réalité.

2. Vision par ordinateur

  Image de circuits et d'une tête humaine

En tant que branche de l'intelligence artificielle, de l'apprentissage automatique et de l'informatique, la vision par ordinateur permet aux ordinateurs de reconnaître et de traiter des images comme les yeux humains. En utilisant réseaux de neurones convolutifs , ils s'appuient sur l'incroyable quantité de données visuelles utilisées dans leur entraînement.

Un écart par rapport aux schémas des données visuelles utilisées lors de l'entraînement entraînera des hallucinations. Par exemple, si un ordinateur n'a pas été formé avec des images d'une balle de tennis, il pourrait l'identifier comme une orange verte. Ou si un ordinateur reconnaît un cheval à côté d'une statue humaine comme un cheval à côté d'un vrai humain, alors une hallucination de l'IA s'est produite.

Donc, pour repérer une hallucination de vision par ordinateur, comparez la sortie générée à ce qu'un humain [normal] est censé voir.

3. Voitures autonomes

  Ford Bleu Croisière 2
Crédit d'image : Gué

Grâce à l'IA, les voitures autonomes infiltrent progressivement le marché automobile. Des pionniers comme Tesla Autopilot et Ford's BlueCruise ont défendu la scène des voitures autonomes. Vous pouvez consulter comment et ce que voit le pilote automatique Tesla pour comprendre un peu comment l'IA alimente les voitures autonomes.

Si vous possédez une de ces voitures, vous voudriez savoir si votre voiture IA hallucine. Un signe sera si votre véhicule semble s'écarter de son comportement normal pendant la conduite. Par exemple, si le véhicule freine ou dévie soudainement sans raison apparente, votre véhicule IA peut avoir des hallucinations.

Les systèmes d'IA peuvent aussi halluciner

Les humains et les modèles d'IA vivent les hallucinations différemment. En ce qui concerne l'IA, les hallucinations font référence à des sorties erronées qui sont à des kilomètres de la réalité ou qui n'ont pas de sens dans le contexte de l'invite donnée. Par exemple, un chatbot IA peut donner une réponse grammaticalement ou logiquement incorrecte ou mal identifier un objet en raison du bruit ou d'autres facteurs structurels.

Les hallucinations de l'IA ne résultent pas d'un esprit conscient ou subconscient, comme vous le feriez chez les humains. Cela résulte plutôt de l'inadéquation ou de l'insuffisance des données utilisées dans la formation et la programmation du système d'IA.