Les détecteurs de contenu IA ne fonctionnent pas, et c'est un gros problème

Les détecteurs de contenu IA ne fonctionnent pas, et c'est un gros problème
Des lecteurs comme vous aident à soutenir MUO. Lorsque vous effectuez un achat en utilisant des liens sur notre site, nous pouvons gagner une commission d'affiliation. En savoir plus.

L'intelligence artificielle (IA) transformera des pans entiers de notre société, que cela nous plaise ou non, et cela inclut le World Wide Web.





Avec des logiciels comme ChatGPT accessibles à toute personne disposant d'une connexion Internet, il devient de plus en plus difficile de séparer le contenu généré par l'IA de celui créé par un être humain. Heureusement que nous avons des détecteurs de contenu IA, n'est-ce pas ?





UTILISEZ LA VIDÉO DU JOUR FAITES DÉFILER POUR CONTINUER AVEC LE CONTENU

Les détecteurs de contenu IA fonctionnent-ils ?

Les détecteurs de contenu IA sont des outils spécialisés qui déterminent si quelque chose a été écrit par un programme informatique ou un humain. Si vous venez de rechercher sur Google les mots 'détecteur de contenu IA', vous verrez il y a des dizaines de détecteurs là-bas, tous affirmant qu'ils peuvent différencier de manière fiable le texte humain et non humain.





Leur fonctionnement est assez simple : vous collez un texte et l'outil vous indique s'il a été généré par l'IA ou non. En termes plus techniques, en utilisant une combinaison de techniques de traitement du langage naturel et d'algorithmes d'apprentissage automatique, les détecteurs de contenu d'IA recherchent des modèles et la prévisibilité, et passent des appels en fonction de cela.

Cela sonne bien sur le papier, mais si vous avez déjà utilisé un outil de détection d'IA, vous savez très bien qu'ils sont aléatoires, c'est un euphémisme. Le plus souvent, ils détectent le contenu écrit par l'homme comme de l'IA, ou le texte créé par des êtres humains comme généré par l'IA. En fait, certains sont horriblement mauvais dans ce qu'ils sont censés faire.



Quelle est la précision des détecteurs de contenu IA ?

Si vous êtes aux États-Unis, le premier résultat de recherche Google pour 'détecteur de contenu IA' est writer.com (anciennement connu sous le nom de Qordoba ; il s'agit d'une plate-forme de contenu IA qui possède également son propre détecteur). Mais lorsque vous collez une section de cette aléatoire Presse associée article dans l'outil, il prétend qu'il y a de très bonnes chances qu'il ait été généré par l'intelligence artificielle.

comment faire en sorte que les jeux s'exécutent plus rapidement sous windows 10
  écrivain.com's AI content detector, screenshot

Donc, writer.com s'est trompé.





Pour être juste, les autres détecteurs de contenu IA ne sont guère meilleurs. Non seulement ils produisent des faux positifs, mais ils marquent également le contenu de l'IA comme humain. Et même quand ce n'est pas le cas, il suffit d'apporter des modifications mineures au texte généré par l'IA pour réussir avec brio.

En février 2023, Armin Alimardani, maître de conférences à l'Université de Wollongong et professeur agrégé à l'UNSW Sydney Emma A. Jane, a testé un certain nombre de détecteurs de contenu d'IA populaires, établissant qu'aucun d'entre eux n'est fiable. Dans leur analyse publiée dans La conversation , Alimardani et Jane ont conclu que cette 'course aux armements' de l'IA entre les générateurs de texte et les détecteurs posera un défi important à l'avenir, en particulier pour les éducateurs.

Mais ce ne sont pas seulement les éducateurs et les enseignants qui ont des raisons de s'inquiéter : tout le monde en a. Alors que le texte généré par l'IA devient omniprésent, être capable de faire la différence entre ce qui est 'réel' et ce qui ne l'est pas, c'est-à-dire repérer réellement quand quelque chose est écrit par l'IA , deviendra plus difficile. Cela aura un impact massif sur pratiquement toutes les industries et tous les domaines de la société, même les relations personnelles.

Les implications de l'IA pour la cybersécurité et la confidentialité

Le fait qu'il n'existe aucun mécanisme fiable pour déterminer si quelque chose a été créé par un logiciel ou un être humain a de graves implications pour la cybersécurité et la confidentialité.

Les acteurs de la menace sont déjà utiliser ChatGPT pour écrire des logiciels malveillants , générer des e-mails de phishing, rédiger des spams, créer des sites frauduleux, etc. Et bien qu'il existe des moyens de se défendre contre cela, il est certainement inquiétant qu'il n'existe aucun logiciel capable de différencier de manière fiable le contenu organique du contenu bot.

Les fausses nouvelles, elles aussi, sont déjà un énorme problème. Avec l'IA générative dans l'image, les agents de désinformation sont capables d'étendre leurs opérations d'une manière sans précédent. Une personne ordinaire, quant à elle, n'a aucun moyen de savoir si quelque chose qu'elle lit en ligne a été créé par un logiciel ou un être humain.

Comment faire une antenne maison pour votre téléviseur

La vie privée est une toute autre affaire. Prenez ChatGPT, par exemple. C'était alimenté plus de 300 milliards de mots avant son lancement. Ce contenu a été extrait de livres, de messages de blog et de forum, d'articles et de médias sociaux. Il a été recueilli sans le consentement de quiconque et avec un mépris apparemment total pour la protection de la vie privée et des droits d'auteur.

Ensuite, il y a aussi la question des faux positifs. Si le contenu est signalé par erreur comme généré par l'IA, cela ne pourrait-il pas conduire à la censure, ce qui est de toute façon un problème majeur ? Sans parler des dommages que le fait d'être accusé d'utiliser du texte créé par l'IA pourrait causer à sa réputation, à la fois en ligne et dans la vie réelle.

S'il y a bien une course aux armements entre l'IA générative et les détecteurs de contenu, c'est la première qui l'emporte. Pire encore, il semble qu'il n'y ait pas de solution. Nous avons tous nos produits à moitié cuits qui ne fonctionnent même pas la moitié du temps ou qui peuvent être trompés très facilement.

Comment détecter le contenu de l'IA : solutions potentielles

Le fait que nous ne semblons pas actuellement avoir de vraies réponses à ce problème ne signifie pas que nous n'en aurons pas à l'avenir. En fait, il existe déjà plusieurs propositions sérieuses qui pourraient fonctionner. Le filigrane en est un.

En ce qui concerne l'IA et les modèles de langage profond, le filigrane fait référence à l'intégration d'une sorte de code secret dans le texte généré par l'IA (par exemple, un modèle de mot, un style de ponctuation). Un tel filigrane serait invisible à l'œil nu, et donc quasiment impossible à supprimer, mais un logiciel spécialisé serait capable de le détecter.

En fait, en 2022, Université du Maryland les chercheurs ont développé une nouvelle méthode de filigrane pour les réseaux de neurones artificiels. Le chercheur principal Tom Goldstein a déclaré à l'époque que son équipe avait réussi à 'prouver mathématiquement' que leur filigrane ne pouvait pas être entièrement supprimé.

qu'est-ce qu'une zone sur mon téléphone

Pour le moment, ce qu'une personne ordinaire peut faire, c'est se fier à son instinct et à son bon sens. S'il y a quelque chose qui cloche dans le contenu que vous lisez - s'il semble anormal, répétitif, sans imagination, banal - il se peut qu'il ait été créé par un logiciel. Bien sûr, vous devez également vérifier toutes les informations que vous voyez en ligne, revérifier la source et rester à l'écart des sites Web louches.

La révolution de l'IA est en marche

Certains affirment que la cinquième révolution industrielle est déjà là, alors que l'intelligence artificielle occupe le devant de la scène dans ce qui est décrit comme une convergence du numérique et du physique. Que ce soit vraiment le cas ou non, tout ce que nous pouvons faire, c'est nous adapter.

La bonne nouvelle est que l'industrie de la cybersécurité s'adapte à cette nouvelle réalité et met en œuvre de nouvelles stratégies de défense avec l'IA et l'apprentissage automatique au premier plan.