Wikipédia limite fortement l'usage de l'IA pour privilégier l’intelligence humaine

Francois LIBMANN
Blog du
15 avril 2026
77
Tags
Intelligence artificielle | Wikipédia | droit d'auteur | fake news
Wikipédia limite fortement l'usage de l'IA pour privilégier ... Image 1
Wikipédia limite fortement l'usage de l'IA pour privilégier ... Image 1

Débordés par les contenus générés par des outils d'IA, les éditeurs de la version anglophone de Wikipédia ont édicté des règles très fermes concernant l'utilisation des grands modèles de langage (LLM) pour produire ou réécrire des articles afin de garantir le respect des règles en vigueur au lancement de Wikipédia : encyclopédisme, neutralité, licence libre, savoir‑vivre et souplesse des règles. 

Ce qui est sous-entendu est que tout cela doit se faire de façon purement humaine sans traitement automatisé des contenus.

Une interdiction quasi-totale de l’IA côté anglophone

Le principe général adopté est celui de l'interdiction de l’utilisation de l’IA. Deux exceptions limitées subsistent :

  • Les suggestions de corrections sur un texte existant, à condition qu'aucun contenu nouveau ne soit ajouté et qu'un humain vérifie le résultat.
  • La traduction vers l'anglais, sous réserve qu'un humain maîtrisant les deux langues valide le rendu.

L'objectif : éviter toute hallucination susceptible d'entamer la crédibilité d'une encyclopédie reposant sur des sources entièrement vérifiables.

La version francophone : une approche plus souple, pour l'instant

Du côté francophone, l'utilisation de l'IA est pour le moment « vivement déconseillée ». Une utilisation « raisonnée » reste possible sous certaines conditions, détaillées sur la page dédiée dont on peut ainsi résumer le contenu :

« L'intelligence artificielle générative (IAg) n'apporte aucune garantie sur la fiabilité, la libre réutilisation et la vérifiabilité du contenu ». Son utilisation est donc vivement déconseillée. Il est probable que la version française s'alignera progressivement sur les principes anglo-saxons. 

Limite pratique : la détection de textes rédigés par une IA devient de plus en plus difficile, ce qui rend l'application de ces règles relativement théorique. 

Des fragilités structurelles bien antérieures à l'IA

Cependant, Wikipédia doit, depuis longtemps, faire face à des défis qui ne sont pas liés à l'IA.

Larry Sanger, l'un de ses cofondateurs, alerte depuis plusieurs années sur une perte de neutralité, évoquant un biais systémique à l'encontre des points de vue conservateurs et religieux, et une dérive vers une vision «globaliste et progressiste». On pensera bien sûr aussi aux attaques répétées d'Elon Musk.

LIRE AUSSI : Wikipédia et Grokipedia : la bataille du savoir à l’ère de l’IA

Par ailleurs, l'encyclopédie fait, en permanence, l'objet de tentatives de manipulation.

Ces manipulations peuvent être : 

  • du marketing déguisé en remplaçant des images neutres par la photographie du produit d’une entreprise (exemple avec du bacon)
  • du management de la réputation avec la suppression d’informations négatives (wikilaundering)
  • de l’auto-promotion massive avec la création d’un réseau de faux comptes, le « record » est détenu par la création de 300 articles (bien sûr supprimés depuis) pour faire la promotion du compositeur David Woodard
  • des tentatives de manipulation sur des sujets politiquement sensibles (Chine, Ukraine, …)
  • des canulars.

Des alternatives payantes existent.

Pour ceux qui préfèrent des contenus rédigés par des spécialistes, les grandes encyclopédies traditionnelles ont abandonné le papier et ont migré vers le web:

  • Encyclopædia Universalis — en français, 4,90 € ou 10,90 €/mois selon l'engagement, sans publicité.
  • Encyclopædia Britannica — en anglais, 8,99 $/mois.
  • Larousse — à partir de 0,99 €/mois.

PS : On peut aussi faire des dons réguliers volontaires à Wikipédia pour contribuer à son fonctionnement. 

LIRE AUSSI : Wikipédia a 20 ans : quels usages pour la veille?