L’IA est-elle vouée à s’appauvrir?

Insights
23 avril, 2024

L’IA est-elle vouée à s’appauvrir?

Insights
23 avril, 2024

Par
Fabien Loszach

Il y a de plus en plus de contenus générés par l’intelligence artificielle (qu’on appelle aussi du contenu synthétique), et ces contenus sont souvent génériques. Mais l’IA ou l'apprentissage profond se nourrit de ce même substrat de contenu en ligne pour apprendre et s’améliorer. L’IA va, immanquablement, finir par se nourrir de son propre contenu et peut-être perdre en qualité… Et si l'intelligence artificielle contenait les germes de sa propre obsolescence ?

Des pairs pas très regardant

Dans le domaine scientifique, l’examen par les pairs est le fondement du progrès scientifique. Vous faites une découverte, vous soumettez un article à une revue scientifique et un comité de rédaction demande à des experts d’évaluer votre article. Votre article est ensuite publié.

Et bien, une étude publiée en mars dernier a révélé que dans le cadre d’articles scientifiques sur l’A.I, justement, ces évaluations utilisaient certains termes comme “Méticuleux”, “Recommandables” ou “Complexe”  de manière anormalement élevée.

Ces mots sont les termes préférés de ChatGPT.  Cela signifie qu’un nombre important de chercheurs ont utilisé ChatGPT pour écrire leur évaluation sur des travaux portant sur l’IA…

“As an AI language model”

Dernièrement, sur Twitter, Melanie Mitchell, une spécialiste de l’IA et professeur au Santa Fe Institute a montré que si l’on va sur les bases de données d’articles scientifiques et que l’on écrit  la phrase « En tant que modèle de langage d’IA »… On découvre que beaucoup d’articles scientifiques contiennent cette formulation.

Cette phrase est bien connue des gens qui utilisent Chatgpt puisqu’elle est souvent utilisée par pour présenter le point de vue de L’IA.

Le magazine The Verge montrait récemment que cette expression s’était d’ailleurs généralisée en ligne;  sur Twitter/X, pour générer du spam et des réponses aux tweets les plus populaires ou encore sur Amazon, où l’expression apparaît dans les faux avis d’utilisateurs.

Un phénomène généralisé

Le mois dernier, le neuroscientifique et écrivain de fiction Erik Hoel, a publié une tribune dans le NYT qui a suscité de vives réactions. Dans Les poubelles de L’IA sont en train de polluer notre culture, il explique, là aussi, les contenus synthétiques se multiplient en ligne.

 

Instagram est rempli de photos ou de modèles générées par l’IA, Pinterest propose des environnements et des intérieurs complètement synthétiques. Spotify on retrouve désormais des chansons créées par l’IA et même des faux auditeurs

L’année dernière, la BBC a enquêté sur la montée des vidéos faussement scientifiques qui ciblaient les enfants sur YouTube. Elle avait identifié plus de 50 chaînes qui utilisaient l’IA pour répandre de la pseudo-science et des théories du complot,  accumulant des millions de vues

Dernier exemple avec Tik-Tok et le phénomène  «Amandine Le Pen»: une influenceuse virtuelle, se faisant passer pour la nièce de Marine le Pen et faisant la promotion la droite nationaliste.

SEO et création de contenu en tête de liste

Quand il s’agit d’alimenter la bête en contenu synthétique, le monde du marketing n’est jamais bien loin. Ici deux disciplines utilisent l’IA abondamment: 

Premièrement, les pro du SEO optimisent leur présence sur les moteurs de recherche en créant  en masse des articles  pour positionner son service au premier plan. Il n’est même pas rare de voir des gens s’en vanter publiquement… 

La deuxième discipline marketing qui use et abuse de chatgpt, est le domaine de la création de contenu sur les réseaux sociaux où tous les calendriers de contenu et les publications sociales des entreprises sont aujourd’hui passées par le prisme de l’IA.



Les médias entre tentation et protection

Les médias numériques oscillent entre l’innovation et la responsabilité éthique. Par exemple, la célèbre revue américaine Sports Illustrated est soupçonnée d’avoir publié des articles créés par intelligence artificielle, attribués à des journalistes fictifs. 

Il y a peu, une fausse alerte annonçant une attaque de l’Iran sur Israël a été publiée par le chatbot IA de X, nommé Grok. Cette information erronée a rapidement été mise en avant dans les tendances de la plateforme, suscitant inquiétude et confusion

Une avenir de copies de copies

Selon Erik Hoel, il y a un réel risque que la culture soit tellement inondée de créations synthétiques que la prochaine génération d’IA soit formée sur ces résidus. Ce qui conduirait à un avenir de copies de copies de copies de copies…

Rappelez-vous à l’école quand votre enseignant.e vous donnait des document qui avaient été  tellement photocopiés que vous ne voyiez plus le texte. C’est un peu la même image ici.

Les experts en intelligence artificielle ont identifié et nommé un risque majeur inhérent à cette technologie : l’effondrement du modèle (Model Collapse). Selon leur analyse, le fait d’entraîner des systèmes d’IA avec leurs propres données générées peut conduire à des dysfonctionnements significatifs. Cette situation peut déclencher une boucle de rétroaction négative où les erreurs se perpétuent et s’amplifient, compromettant la fiabilité et l’efficacité du système.

L’effondrement des connaissances

Un autre papier, publié le 5 avril dernier, propose une théorie tout aussi apocalyptique avec le concept d’effondrement des connaissances.  Rédigé par Andrew J. Peterson à l’Université de Poitiers, ce travail explore comment l’IA, en exploitant continuellement ses propres contenus, peut mener à « un rétrécissement progressif de l’ensemble des informations disponibles pour les humains ». Ce processus risque d’exacerber la visibilité des idées déjà largement acceptées tout en occultant les savoirs moins conventionnels, entraînant potentiellement une homogénéisation du savoir accessible.

Pour prendre un exemple, imaginez que l’IA nous fasse des suggestions de livre grand public et néglige les genres plus nichés. Et bien ces sujets de niche finiraient par disparaître avec le temps. Sans le renouvellement et l’air frais qu’amène ces nouvelles idées, notre civilisation verrait ses connaissances s’effondrer. 



Repenser l'Internet Une Approche Écologique de Notre Culture Numérique

Dans son essai pour le New York Times, le neurologue Erik Hoel utilise une métaphore écologique pour illustrer notre situation actuelle, comparant les défis culturels à ceux du réchauffement climatique. Il souligne que, tout comme notre planète, notre culture commune est également polluée. Ce problème de pollution culturelle est exacerbé par des acteurs qui poursuivent leurs propres intérêts au détriment du bien commun.

Hoel plaide pour un changement de paradigme, suggérant que nous devrions traiter Internet et la culture comme des biens communs, à l’instar de de l’environnement. Il critique les acteurs technologiques qui, à l’image de certaines compagnies pétrolières face aux gaz à effet de serre, refusent d’adopter des outils pour légiférer ou identifier la présence de l’IA.

Pour contrer cette inaction, Hoel propose la création d’une législation similaire à la loi sur la qualité de l’air, mais axée sur la propreté et l’éthique de l’internet. Cette loi viserait à purifier notre environnement numérique de la même manière que nous cherchons à protéger notre atmosphère terrestre.