7 raisons de ne pas utiliser l'IA générative dans les applications de messagerie

7 raisons de ne pas utiliser l'IA générative dans les applications de messagerie
Des lecteurs comme vous aident à soutenir MUO. Lorsque vous effectuez un achat en utilisant des liens sur notre site, nous pouvons gagner une commission d'affiliation. En savoir plus.

Dans l'IA, des progrès sont réalisés à des niveaux sans précédent, avec de nouveaux développements effectués presque chaque semaine. Les outils d'IA générative tels que ChatGPT sont maintenant si populaires qu'ils sont intégrés partout.





Mais devrions-nous? L'utilisation de la technologie de l'IA pour la productivité, l'éducation et le divertissement est logique. Cependant, les entreprises pensent maintenant à le mettre directement dans nos applications de messagerie, et cela peut s'avérer destructeur. Voici sept raisons pour lesquelles.





UTILISEZ LA VIDÉO DU JOUR FAITES DÉFILER POUR CONTINUER AVEC LE CONTENU

1. Les chatbots IA ont tendance à halluciner

Si vous avez utilisé ChatGPT, Bing ou Bard , vous savez que les chatbots d'IA générative ont tendance à 'halluciner'. L'hallucination de l'IA se produit lorsque ces chatbots inventent des choses en raison d'un manque de données de formation adéquates sur la requête demandée par l'utilisateur.





En d'autres termes, ils livrent des informations erronées mais semblent confiants, comme si c'était un fait. C'est un gros problème car de nombreuses personnes ne vérifient pas les faits lorsqu'elles utilisent un chatbot et pensent qu'il est exact par défaut. C'est l'un des plus grands erreurs à éviter lors de l'utilisation d'outils d'IA .

Lorsqu'il est placé dans des applications de messagerie, le préjudice qu'il peut causer est encore plus grand, car les gens peuvent l'utiliser (intentionnellement ou non) pour diffuser des informations erronées parmi leurs contacts et sur les réseaux sociaux, faire proliférer la propagande et favoriser les chambres d'écho.



2. Les gens n'aiment pas parler aux bots

  Petit robot orange et argenté assis sur de la moquette avec un ordinateur portable devant lui.
Crédit d'image : studio graphique/ Vecteezy

Pensez à quel point c'est ennuyeux lorsque vous essayez de contacter le support client d'une entreprise et que vous êtes obligé de parler à un chatbot au lieu d'un véritable cadre humain qui peut réellement comprendre les nuances de votre problème et offrir des conseils appropriés.

Il en va de même pour les conversations personnelles. Imaginez que vous parlez à votre ami et qu'à mi-chemin, vous vous rendez compte qu'il a utilisé l'IA pour répondre à vos messages tout ce temps au lieu de le faire lui-même en fonction de ses pensées et de ses opinions.





Si vous êtes comme la plupart des gens, vous vous sentirez immédiatement offensé et percevrez l'utilisation de l'IA dans une conversation privée comme insensible, effrayante et même passive-agressive, comme si l'autre personne ne considérait pas que vous valiez son temps, son attention et empathie.

L'utilisation de l'IA pour écrire des e-mails, par exemple, est compréhensible puisqu'il s'agit d'une interaction professionnelle, mais l'utiliser dans des conversations personnelles ne sera pas encouragé. Une fois que la nouveauté de la technologie s'estompera, il deviendra impoli de l'utiliser dans ce contexte.





3. L'IA ne peut pas copier votre tonalité unique

Aujourd'hui, les outils d'IA générative vous permettent déjà de changer la tonalité de votre message, comme formel, joyeux ou neutre, selon à qui vous écrivez et comment vous voulez le faire passer. Composition magique dans Google Messages , par exemple, vous permet de faire la même chose.

Bien que ce soit une bonne chose, notez que ces tonalités sont formées sur la base de données de formation définies et non de votre historique de chat personnel, de sorte qu'elles ne peuvent pas reproduire votre tonalité unique ou les emojis que vous utilisez habituellement.

Vous ne vous en souciez peut-être pas beaucoup, surtout si vous utilisez l'IA pour écrire des e-mails professionnels simples pour lesquels tout le monde utilise plus ou moins la même tonalité formelle. Mais cela compte bien plus que vous ne le pensez lorsque vous l'utilisez pour parler à vos amis et à votre famille sur une application de messagerie.

Jusqu'à ce que les outils d'intelligence artificielle vous permettent de former leur modèle de langue en fonction de votre historique de chat, ils ne pourront pas reproduire votre dialecte et vos excentricités uniques. Cela dit, ce défi n'est pas si difficile à résoudre, nous pourrions donc le voir bientôt mis en œuvre.

4. Écrire de bonnes invites prend du temps

  homme, textos, sur, téléphone portable

L'obtention des résultats souhaités d'un chatbot IA dépend fortement de la qualité de votre invite. Si vous écrivez une mauvaise invite, vous obtiendrez une mauvaise réponse et devrez affiner l'invite jusqu'à ce que vous obteniez un résultat satisfaisant.

Ce processus est logique lorsque vous souhaitez rédiger un contenu long, mais est extrêmement inefficace lorsque vous rédigez plusieurs réponses courtes dans une conversation informelle.

Le temps nécessaire pour affiner vos invites et obtenir des réponses utilisables sera, dans la plupart des cas, supérieur au temps qu'il vous aurait fallu si vous veniez d'écrire les messages vous-même.

partager des fichiers entre mac et pc

5. L'IA peut produire des résultats offensants

Outre la précision, le biais est l'un des les plus gros problèmes avec l'IA générative . Certaines personnes perçoivent l'IA comme impartiale car elle n'a pas ses propres motivations. Cependant, les personnes derrière ces outils d'IA sont en fin de compte des humains avec leurs propres préjugés.

En d'autres termes, la partialité est intégrée au système. L'IA ne comprend pas intrinsèquement ce qui est considéré comme offensant et ce qui ne l'est pas, de sorte qu'elle pourrait, par exemple, être entraînée à être biaisée contre certains groupes de personnes ou certaines cultures, produisant ainsi des résultats offensants dans le processus.

6. L'IA peut ne pas comprendre le sarcasme ou l'humour

La compréhension par l'IA des figures de style, telles que l'ironie et la métaphore, s'améliore avec le temps, mais elle est encore loin d'être à un point où elle peut être utilisée dans une conversation pour reconnaître l'humour. Lorsqu'on a demandé au barde de Google d'être sarcastique, par exemple, les résultats ont été aléatoires.

  Le chatbot Google Bard tente d'être sarcastique

Dans certains cas, c'était vraiment drôle et jouait avec mon sarcasme. Mais dans d'autres cas, il est soit revenu par défaut à une réponse peu drôle à l'emporte-pièce, soit a simplement refusé de participer à la conversation, disant que comme il ne s'agit que d'un LLM, cela ne peut pas m'aider avec ma requête.

7. La dépendance à l'IA peut entraîner une mauvaise communication

Un autre problème subtil mais substantiel lié à l'intégration de l'IA générative dans les applications de messagerie est de savoir comment cela peut affecter notre capacité à communiquer. Si nous comptons de plus en plus sur l'IA pour communiquer entre nous, cela peut entraver notre capacité à former notre intelligence émotionnelle et compétences sociales.

Le point ici est que plus nous sous-traitons nos besoins sociaux à l'IA, plus nous aurons de mal à communiquer des idées par des moyens organiques. En d'autres termes, plus vous utilisez l'IA pour parler à vos contacts, plus vous risquez de dégrader la qualité de vos relations.

Tout n'a pas besoin d'IA

Souvent, avec l'avènement de la nouvelle technologie, nous sommes tellement occupés à comprendre comment l'utiliser que nous ne parvenons pas à nous demander si nous devrions l'utiliser en premier lieu.

Bien qu'il soit tout à fait logique d'utiliser l'IA générative pour écrire des e-mails, réfléchir à des idées ou créer des images pour des présentations, son intégration dans les applications de messagerie suscite de nombreuses critiques.