Introduction : Un parcours de l’histoire antique au combat pour le savoir libre

Rémy, ton parcours est atypique : de l’histoire antique à la direction de Wikimédia France. Comment en es-tu arrivé à ta position de directeur éxécutif de Wikimedia France ?

(Rires) C’est vrai que le chemin n’était pas évident ! J’ai fait mes études d’histoire à la Sorbonne, à Paris, avec une spécialisation en histoire antique grecque. Mon master portait sur les premières législations du monde grec en Sicile, du VIIIe au VIe siècle avant notre ère. Assez loin du monde numérique, de quelques siècles même ! (rires)

Je me destinais à la recherche, je préparais le CAPES et l’agrégation. Pendant cette période, j’avais déjà touché un peu à Wikipédia dans le cadre de mes recherches, fait quelques corrections mineures. J’avais compris le mécanisme mais je n’étais pas contributeur actif, je n’avais même pas de compte. Et puis, cherchant une activité d’appoint pendant ma préparation à l’agreg (il faut bien se nourrir ! (rires)) j’ai progressivement été amené vers l’univers Wikimédia.

Ce qui m’a frappé, c’est cette dimension de construction collective du savoir, cette idée qu’on pouvait créer quelque chose d’aussi monumental que la plus grande encyclopédie du monde de manière collaborative, ouverte et non-commerciale. C’était une révolution silencieuse à laquelle je voulais participer.

Wikimédia France : bien plus qu’un soutien à Wikipédia

Pour nos lecteurs, peux-tu expliquer ce qu’est Wikimédia France et comment l’association se positionne dans la défense des communs numériques ?

Wikimédia France est une association de droit français, distincte de la Wikimedia Foundation qui gère l’infrastructure technique mondiale. Notre rôle est multiple et va bien au-delà du simple soutien à Wikipédia.

On a trois grands axes de travail. Le premier, c’est l’animation et la protection des communautés de contributeurs. On organise des événements, on met en relation les Wikipédiens. Mais on a aussi un volet très important de soutien : on a un avocat dédié pour protéger juridiquement nos contributeurs quand ils en ont besoin. On a même une ligne de soutien psychologique ouverte 24h/24 et 7j/7, notamment quand ils rencontrent des contenus haineux ou sont victimes de harcèlement.

C’est une réalité méconnue : les contributeurs ont besoin de protection ?

Absolument. Contribuer à Wikipédia, ce n’est pas anodin. Nos contributeurs sont parfois exposés à des pressions, des menaces, du harcèlement. On a le devoir de les protéger. C’est une condition essentielle pour maintenir un espace de contribution libre et ouvert.

Et les autres axes ?

Le deuxième axe concerne les partenariats institutionnels pour la diffusion du savoir libre. On a des wikimédiens en résidence dans des universités qui forment les enseignants-chercheurs et doctorants à contribuer à Wikipédia, pour donner accès à leurs recherches. On travaille avec des archives, musées et bibliothèques.

Chaque année, on remet le label “appel culture libre” aux institutions qui ont eu une bonne pratique en termes d’ouverture de leur contenu sur le Web. C’est une manière de valoriser et d’encourager cette démarche d’ouverture.

Le troisième axe, crucial, c’est le plaidoyer et les affaires publiques. On travaille avec les administrations d’État ; Viginum sur les questions de désinformation, l’ARCOM lors d’événements publics nécessitant une vigilance particulière. C’est un travail essentiel de défense du modèle collaboratif face aux régulations qui ne sont pas toujours adaptées à notre réalité.

Le combat réglementaire : faire reconnaître la spécificité des communs numériques

Tu parles de régulations inadaptées. C’est un enjeu majeur pour Wikimédia ?

C’est même un de nos combats principaux ! Le problème aujourd’hui, c’est qu’il n’existe pas qu’un seul modèle de Web. Il y a des plateformes alternatives avec des modes de fonctionnement radicalement différents. On pense à OpenStreetMap, Open Food Facts, et bien sûr Wikipédia. C’est tout un écosystème des communs numériques.

Le danger, c’est qu’à force de construire des régulations pour réguler les plateformes problématiques ; les GAFAM, les réseaux sociaux qui posent de vrais problèmes de modération, de désinformation, etc., on contraint celles qui ne posent pas de problème à se conformer à des exigences qui ont été pensées pour des géants du numérique commerciaux.

Concrètement, quelles sont les conséquences ?

On se retrouve traités comme Facebook ou Twitter alors que notre modèle est aux antipodes ! On n’a pas d’algorithme de recommandation conçu pour maximiser l’engagement, on n’a pas de modèle publicitaire, on n’a pas d’actionnaires à satisfaire. Notre modèle, c’est la modération citoyenne, la contribution collaborative, la transparence totale.

Mais les régulations sont souvent écrites de manière monolithique, comme s’il n’existait qu’un seul type de plateforme. Résultat : on doit se conformer à des obligations pensées pour des acteurs qui ont des moyens techniques et financiers cent fois supérieurs aux nôtres et qui ont des problématiques complètement différentes.

Comment vous battez-vous contre cette tendance ?

On essaie de montrer qu’en réalité, il existe un modèle différent, le modèle des communautés numériques et des communs. Wikipédia est peut-être l’archétype le plus connu, mais n’est pas tout seul dans son coin. Il y a un écosystème derrière qui existe et qui fonctionne.

Du coup, on se positionne aussi comme des gens qui ouvrent peut-être la voie à d’autres projets. L’objectif, c’est de trouver une manière d’être traités différemment, non pas parce qu’on est une exception à protéger, mais parce qu’on reconnaît qu’il y a ces environnements différents qui méritent d’être traités peut-être individuellement, mais surtout moins de manière monolithique.

C’est un combat difficile ?

Oui, parce que quand on fait du plaidoyer, on nous renvoie souvent au fait qu’on serait tout seuls dans notre coin. Mais on n’est pas seuls ! Il faut qu’on arrive à construire une voix collective avec tous ces acteurs des communs numériques. C’est un travail de longue haleine, mais c’est absolument essentiel pour l’avenir du Web libre et ouvert.

Les menaces contre Wikipédia : un tableau inquiétant

Tu as évoqué plusieurs fois des “attaques” contre Wikipédia. Peux-tu nous dresser un tableau de ces menaces ?

Malheureusement, oui, les menaces sont réelles et multiples. Il faut comprendre que quand les choses vont du mauvais côté de la barrière, Wikipédia est souvent une des premières victimes, avec les médias indépendants.

Aux États-Unis aujourd’hui, Wikipédia est sous le coup de menaces constantes. On a des groupes organisés qui font du ciblage, il y a un objectif affiché de nuire à Wikipédia. On reçoit des lettres de menace régulières. C’est devenu une réalité avec laquelle on doit composer.

Quels types de menaces concrètes ?

Il y a plusieurs niveaux. D’abord, les tentatives de prise de contrôle de versions linguistiques. C’est particulièrement préoccupant pour les petites communautés. Pour la Wikipédia en français, ça tient encore parce qu’on a environ 21 000 à 22 000 contributeurs actifs par mois. Il y a une masse critique qui permet de résister.

Mais la Wikipédia en croate, quand tu as 150 contributeurs actifs, tout de suite, c’est beaucoup plus simple, entre guillemets, de prendre le contrôle. Des acteurs malveillants peuvent s’organiser, devenir administrateurs, et orienter le contenu selon leurs objectifs politiques ou idéologiques.

Il y a aussi des menaces plus directes ?

Malheureusement oui, et c’est très grave. Aujourd’hui, en Biélorussie notamment, on a un Wikipédien qui a été emprisonné parce qu’il a renommé l’article en russe “Opérations spéciales en Ukraine” en “Invasion de l’Ukraine”. Il s’est fait emprisonner pour ça. Juste pour avoir dit la vérité.

C’est le genre de réalité à laquelle on est confrontés. Dans certains pays, contribuer à Wikipédia en toute honnêteté peut vous mettre en danger physique. C’est pour ça qu’on a ce rôle de protection juridique et de soutien à nos contributeurs.

Et les manipulations organisées ?

C’est un phénomène en croissance. On a des tentatives coordonnées de manipulation du contenu, des campagnes de désinformation sophistiquées. Avec l’arrivée de l’IA générative, le problème s’aggrave.

L’IA générative : une nouvelle arme de désinformation

Justement, comment l’IA générative change-t-elle la donne ?

C’est un défi majeur. Le problème principal aujourd’hui, c’est que des acteurs malveillants peuvent créer des sites web entièrement générés par IA, avec du contenu qui semble crédible, puis venir sur Wikipédia les ajouter comme sources pour influencer le contenu de l’encyclopédie.

Ça donne de nouveaux outils de manipulation de l’information qu’il n’y avait pas avant, très clairement. Face à ça, on essaie de s’outiller, d’améliorer notre capacité à détecter ces ajouts frauduleux.

Comment vous défendez-vous ?

On travaille sur un projet européen pour développer des outils d’aide à la détection de désinformation. L’objectif est d’aider les contributeurs à identifier plus facilement les tentatives de manipulation, les fausses sources, les contenus générés artificiellement.

Mais attention : ce n’est pas un outil automatique qui prendrait des décisions à la place des humains. Ça, c’est hors de question. C’est un outil d’aide à la décision pour les modérateurs humains.

Quelle est votre position de principe sur l’IA ?

Notre message est clair : derrière toute IA générative, il y a de l’humain. C’est complètement faux de penser que c’est juste la machine qui génère toute seule. Il y a de l’humain, il y a des données, du contenu produit par des gens.

Et nous, on est là pour défendre l’encyclopédie humaine. Notre objectif, et c’est une position partagée par tout le mouvement Wikimédia, c’est qu’on ne veut pas, et c’est hors de question, qu’à un moment donné, ce soit des IA qui écrivent Wikipédia.

C’est une ligne rouge absolue ?

Complètement. Les IA peuvent être des outils d’aide, mais on veut toujours que ce soit des humains qui aient le contrôle final. Le bouton de : on prend ce contenu, on ne le prend pas, on le met comme ça, on le discute, on le débat. Cette délibération humaine est au cœur du modèle Wikipédia et elle doit le rester.

La fragilité du modèle : le déclin des contributeurs

Au-delà des menaces externes, il y a aussi une fragilité interne : le nombre d’administrateurs diminue.

Oui, c’est un vrai sujet d’inquiétude. Les administrateurs, ce sont des contributeurs élus par la communauté qui ont des droits supplémentaires pour modérer, protéger des pages, bloquer des vandales. Ce sont les gardiens de la qualité de l’encyclopédie.

Il y a dix ans, on avait 170 administrateurs sur la Wikipédia francophone. Aujourd’hui, on en est à 138. La baisse n’est pas énorme mais elle est progressive, régulière. C’est un signal d’alerte.

Pourquoi cette baisse ?

Plusieurs raisons. D’abord, le rôle d’administrateur est devenu plus difficile, plus exposé. Il y a plus de pression, plus de conflits à gérer, plus de tentatives de manipulation sophistiquées à détecter. C’est épuisant.

Ensuite, il y a un problème de renouvellement générationnel. On n’arrive pas assez à attirer de nouveaux contributeurs jeunes, notamment avec des compétences techniques. Et sans ce renouvellement, le système s’affaiblit.

Quelles sont les conséquences concrètes ?

Quand tu as moins d’administrateurs pour le même volume, voire un volume croissant, de tentatives de manipulation, de vandalismes sophistiqués, de campagnes coordonnées, forcément, c’est plus difficile de maintenir la qualité. Il y a un risque que certaines manipulations passent entre les mailles du filet.

Pour la Wikipédia en français, avec notre masse critique de contributeurs, ça tient encore. Mais c’est un équilibre fragile. Et pour les petites versions linguistiques, c’est déjà critique. C’est pour ça qu’on insiste tant sur le besoin de recruter de nouveaux contributeurs et contributrices.

La modernisation technique : un enjeu de survie

Tu as parlé de vieillissement technologique de Wikipédia. C’est aussi un facteur de fragilité ?

Absolument. Wikipédia va avoir 25 ans en janvier prochain. C’est un très beau projet, toujours très actif, mais c’est un projet qui vieillit techniquement, technologiquement parlant, voire même par certains aspects de manière très importante.

On a un enjeu majeur de modernisation des outils. C’est un de nos gros défis pour l’avenir. Sans cette modernisation, on risque de ne plus pouvoir faire face aux nouvelles formes d’attaques, aux tentatives de manipulation plus sophistiquées.

Quels outils doivent être modernisés en priorité ?

On travaille actuellement sur le développement d’une version pratiquement 2.0 de l’outil de suivi des modifications sur Wikipédia. C’est un outil crucial pour la modération, pour détecter les vandalismes, les ajouts suspects.

On développe aussi des outils d’aide à la détection de désinformation, pour identifier les fausses sources, les sites générés par IA, etc. C’est un travail technique complexe qui nécessite des compétences pointues.

C’est là que les ingénieurs peuvent intervenir ?

Exactement ! C’est pour ça que je fais le lien avec les écoles comme l’EPISEN. On a cruellement besoin de compétences techniques pour nous aider à moderniser notre infrastructure, à développer de nouveaux outils de défense contre les manipulations.

Si on n’arrive pas à moderniser, si les outils ne suivent pas, on va avoir du mal à attirer de nouveaux contributeurs, notamment techniques. Et on va surtout avoir du mal à maintenir le niveau de protection nécessaire face aux menaces croissantes. C’est vraiment un enjeu de survie du projet.

L’appel aux armes : comment contribuer à la défense des communs

Concrètement, comment un étudiant ingénieur peut-il s’engager dans cette défense des communs numériques ?

De plein de manières ! D’abord, vous pouvez adhérer à Wikimédia France et on vous mettra en relation avec notre petit groupe tech. On a un groupe de bénévoles qui essaie d’organiser cette année un hackathon justement pour développer et mettre à jour des outils de modération.

Un hackathon Wikipédia, c’est une première ?

On en a déjà organisé par le passé, mais celui-ci sera vraiment focalisé sur les outils de modération. Il n’y a pas encore de date fixée, c’est en cours de construction, mais ça va être une belle opportunité de contribuer concrètement.

On essaie aussi de participer aux discussions internationales sur des outils mondiaux. Donc il ne faut pas hésiter, il y a plein de niveaux d’implication possibles.

Quel est le profil recherché ?

Tous les profils techniques sont utiles ! Que vous soyez développeur, spécialiste en sécurité informatique, en machine learning, en architecture réseau… Il y a des besoins partout. Et même si vous n’êtes pas super techniques, il y a d’autres manières de contribuer : contribution au contenu, aide à la modération, participation au plaidoyer…

L’essentiel, c’est de comprendre qu’on défend quelque chose d’important. On défend un espace libre, ouvert, collaboratif, non-commercial sur Internet. Et ça, ça vaut la peine de s’y investir.

Vision d’avenir : le combat pour un Web libre

Quelle est ta vision pour les années à venir ? Es-tu optimiste ?

Je suis réaliste. Les défis sont immenses et les menaces sont réelles. Mais je crois profondément que ce combat en vaut la peine et qu’il est possible de le gagner.

Ma vision, c’est d’abord que le modèle Wikipédia et des communs numériques soit mieux compris et reconnu. Beaucoup de gens en France ne comprennent pas comment fonctionne Wikipédia : la modération citoyenne, l’aspect contributif, la gouvernance communautaire. Cette méconnaissance nous fragilise.

Comment changer cette perception ?

Il faut qu’on arrive à mieux expliquer qu’il n’existe pas qu’un seul modèle de plateforme Web. Il y a des alternatives avec des modes de gouvernance différents, plus démocratiques, plus ouverts. Et que ces modèles doivent être protégés, valorisés, soutenus.

Il faut aussi qu’on arrive à construire une coalition plus forte avec tous les acteurs des communs numériques ; OpenStreetMap, Open Food Facts, et tant d’autres. Séparés, on nous renvoie au fait qu’on serait des exceptions. Ensemble, on peut montrer qu’on représente un écosystème cohérent et viable.

Le message aux futurs ingénieurs : un appel à l’engagement

Si tu devais laisser un message aux lecteurs, notamment aux futurs ingénieurs, quel serait-il ?

Mon message principal serait : battez-vous pour le libre accès à la connaissance et l’open source. Ce n’est pas juste une question technique ou idéologique, c’est une question démocratique fondamentale.

Restreindre l’accès à la connaissance, c’est restreindre l’accès à des informations essentielles pour un débat démocratique, pour une société saine. Tout simplement.

Un dernier mot ?

Ne sous-estimez pas votre pouvoir d’action. Que ce soit quelques heures par mois ou un engagement plus important, chaque contribution compte. Wikipédia et les communs numériques ont besoin de vous. Le Web libre a besoin de vous.

Rejoignez-nous. Adhérez à Wikimédia France. Participez à nos hackathons. Contribuez au code ou aux articles. Aidez-nous à défendre ce bien commun exceptionnel qu’est le libre accès à la connaissance.

Parce qu’au final, c’est ça qui est en jeu : est-ce qu’on veut un Internet dominé par quelques géants commerciaux qui décident de ce qu’on peut savoir et comment on peut le savoir ? Ou est-ce qu’on veut préserver des espaces libres, ouverts, où la connaissance reste un bien commun accessible à tous ?

La réponse me semble évidente. Mais elle ne se décrètera pas toute seule. Elle se construira, jour après jour, contribution après contribution. Et c’est maintenant qu’il faut agir.


Interview réalisée en octobre 2025 dans le cadre du magazine MEETS, de l’EPISEN. Retrouvez les numéros parus ici > https://drive.google.com/drive/u/0/folders/1i7koxPhfs_5d6rcJ6-pktTFLpago445c