Algo Lit / Blog : 23.02.2026 ? Retour

Algorithmes en Europe : la transparence comme enjeu démocratique

Littératie algorithmique en Europe Les algorithmes sont omniprésents dans nos vies quotidiennes : accès aux droits, services publics, plateformes numériques, priorisation des contenus ou prise de décision automatisée. Pourtant, ils restent largement invisibles pour celles et ceux qu’ils affectent. De plus, quand elle existe, leur transparence se limite à la publication d’informations techniques, de rapports ou de documentation.

Or, publier une notice explicative ne garantit en rien la compréhension réelle des décisions produites par un algorithme. Un système peut être légalement transparent tout en restant socialement opaque. La question n’est donc pas seulement ce qui est rendu public, mais qui est réellement en capacité de comprendre, d’interroger et de contester ces systèmes.

Le webinaire «Transparence des algorithmes en Europe : état des lieux et perspectives» organisé par La Mednum, Datactivist, FARI AI for the Common Good Institute et Waag Futurelab dans le cadre du projet européen Algo-Lit (financé par Erasmus+) et qui s’est tenu le 2 décembre dernier, dresse à ce propos un constat clair : la transparence algorithmique telle qu’elle est pratiquée aujourd’hui est largement insuffisante.

Lors de cet événement, qui a réuni 290 professionnels de la médiation numérique et des chercheurs de France, Belgique et des Pays-Bas, il a en effet été question de retours d’expérience et de bonnes pratiques pour répondre aux questions communes aux trois pays : comment rendre les algorithmes compréhensibles, comment aider les médiateurs et les intervenants de terrain à en parler et les expliquer aux citoyennes et aux citoyens.

De la transparence formelle à la transparence effective

Les interventions de Loup Cellard, chercheur français, Tania Duarte, fondatrice de We and AI au Royaume-Uni et Adrien Pouillet, chef de projet à La Mednum, ont insisté sur une distinction essentielle : celle entre transparence formelle et transparence effective. Si la première répond aux exigences réglementaires ; la seconde s’intéresse à l’expérience vécue par les personnes concernées. Or, la transparence commence réellement lorsqu’une personne peut dire : “je comprends ce qui m’arrive”.

Cette approche met en lumière un angle mort fréquent des politiques publiques et des discours technologiques : la compréhension n’est pas seulement une affaire d’experts. La littératie algorithmique ne consiste pas à transformer les citoyens en ingénieurs, mais à leur donner les clés pour comprendre les logiques à l’œuvre, identifier les marges de manœuvre et exercer leurs droits.

Pouvoir, légitimité et justice sociale : l’éclairage de Tania Duarte

L’intervention de Tania Duarte, fondatrice de l’organisation britannique We and AI, a apporté une lecture résolument politique et critique des enjeux de transparence algorithmique. Pour elle, le débat ne peut se limiter à la compréhension technique des systèmes : la question centrale est celle du pouvoir.

En effet, les algorithmes ne sont jamais neutres. Ils incorporent des choix, des priorités et des valeurs qui produisent des effets très concrets sur les individus et les groupes sociaux. Même lorsqu’un système est « explicable », il peut continuer à générer des discriminations, renforcer des inégalités existantes ou imposer des décisions sans réel consentement.

Tania Duarte a ainsi rappelé que la transparence ne crée pas automatiquement la légitimité. Comprendre comment fonctionne un algorithme ne suffit pas si les personnes concernées n’ont aucun moyen de contester son usage ou d’influencer les décisions prises en amont. D’où une question essentielle : « devrait-on utiliser cet algorithme, et dans quelles conditions ? »

Tania Duarte met en avant trois postures possibles face aux systèmes d’IA :

  • résister à certains usages jugés injustes ou nuisibles,
  • refuser l’automatisation lorsque les impacts sociaux sont trop lourds,
  • réinventer des technologies co-construites avec les communautés concernées.

Cette approche déplace le débat : il ne s’agit plus seulement de rendre les algorithmes compréhensibles, mais de redonner aux citoyens un pouvoir réel sur les choix technologiques qui affectent leur quotidien.

Le rôle clé de la médiation

Face à cette complexité, les médiateurs numériques apparaissent comme des acteurs essentiels. Ils se situent à l’interface entre les institutions, les systèmes techniques et les citoyens. Leur rôle n’est pas de simplifier à outrance, mais de traduire des décisions algorithmiques en expériences compréhensibles, et surtout de redonner du pouvoir d’agir aux personnes concernées.

Lors des discussions, plusieurs éléments intéressants ont été mis en lumière :

  • un besoin fort de ressources adaptées (outils pédagogiques, supports concrets, exemples de cas d’usage),
  • une nécessité de temps et de formation pour s’approprier ces sujets en constante évolution,
  • et l’importance de disposer de cadres communs et de repères partagés, afin de ne pas aborder la question des algorithmes uniquement sous un angle technique, mais aussi social, politique et éthique.

La médiation devient alors une alternative concrète à l’opacité algorithmique.

Une ambition européenne à construire

Les échanges ont également montré que, malgré l’existence de cadres juridiques communs au niveau européen, les pratiques de transparence algorithmique restent très inégales d’un pays à l’autre.

Cette diversité de situations rappelle que la transparence ne se décrète pas uniquement par la loi : elle se construit dans les usages, les pratiques professionnelles et l’accompagnement des publics.

Les retours des participants montrent à quel point les acteurs de terrain ont besoin de ressources partagées, de cadres communs et d’espaces d’échange pour s’emparer collectivement de ces enjeux.

C’est précisément dans cette dynamique que s’inscrit le projet Algo-Lit.

À travers le développement de ressources, la formation des médiateurs et la mise en réseau d’acteurs européens, le projet vise à promouvoir une transparence algorithmique qui ne soit pas seulement conforme aux textes, mais réellement utile, compréhensible et appropriable par celles et ceux qui accompagnent les citoyens au quotidien.

L’Europe dispose d’une opportunité majeure : faire de la littératie algorithmique un véritable pilier démocratique, à condition de l’ancrer dans des démarches concrètes de médiation.

Capture écran du webinaire

Remerciements

Nous remercions encore chaleureusement l’ensemble des intervenant·es pour la richesse de leurs analyses et de leurs retours d’expérience : Loup Cellard, chercheur (France) Tania Duarte, fondatrice de We and AI (Royaume-Uni) Adrien Pouillet, chef de projet à La Mednum (France)

Ainsi que les membres du consortium Algo-Lit : Léa Rogliano et Alice Demaret du FARI – AI for Common Good Institute (Belgique) ; Tessel van Leeuwen, Bente Zwankhuizen et Danny Lämmerhirt de Waag Futurelab (Pays-Bas) et Maëlle Fouquenet de Datactivist.

De nombreuses ressources issues du webinaire sont disponibles sur les liens suivants :

👉 Le replay du webinaire (en anglais)

👉Le guide d’activité de médiations

👉L’étude des formations en littératie à l’IA en français, anglais et néerlandais