Dans un contexte où les algorithmes et autres produits d'IA se développent dans les services publics et privés, l'amélioration de la littératie des travailleurs de l'inclusion numérique et des défenseurs des droits devrait améliorer la compréhension qu'ils ont de ces systèmes et leurs capacités à aider les citoyens qui rencontrent un problème lié à ces systèmes. En identifiant et en encourageant à acquérir les compétences nécessaires pour comprendre et utiliser les algorithmes, le projet pallie à la la transformation numérique de la société réalisée à marche forcée, et ce sans laisser les citoyens de côté.
De manière problématique, les citoyens qui risquent le plus d'être ciblés ou discriminés par l'utilisation d'algorithmes sont probablement ceux qui manquent le plus d'informations et d'options d'action lorsqu'ils rencontrent un problème avec un système algorithmique. En France, Lighthouse Reports s'est associé au journal Le Monde pour enquêter sur un algorithme déployé par la Caisse Nationale des Allocations Familiales (CNAF), l'organisme responsable du système de sécurité sociale français. L'algorithme, déployé depuis plus de 10 ans, tente de prédire quels sont les bénéficiaires de prestations qui commettent des fraudes. Ce système cible systématiquement les personnes dans les situations les plus précaires, tout en rendant presque impossible les enquêtes sur les plus aisés. De même, le gouvernement néerlandais utilise SyRI, un algorithme secret, pour détecter d'éventuelles fraudes aux prestations sociales. Des militants des droits civiques ont porté l'affaire devant les tribunaux et ont réussi à pousser les organismes publics à réfléchir des alternatives moins répressives. Des chercheurs belges craignent que des outils similaires soient ou aient été utilisés. De nombreux autres exemples d'algorithmes nuisibles existent dans d'autres pays de l'UE et ont été documentés par l'ONG berlinoise Algorithm Watch.
En améliorant la compréhension des algorithmes par les travailleurs de l'inclusion, ceux-ci seront plus à même de critiquer et de résister aux nouveaux produits d'IA — en particulier ceux issus de la distribution de l'IA générative dans les moteurs de recherche ou les chatbots — qui sont souvent imposés aux citoyens sans contrôle démocratique.
Le projet anticipera et répondra à une demande croissante des médiateurs numériques pour expliquer et aider les citoyens confrontés à des décisions basées sur des algorithmes (par exemple, lorsque l'on doit remplir des documents fiscaux ou écrire un message dans un chatbot). En travaillant avec des professionnels, nous identifierons quels algorithmes doivent être expliqués et comment. Le fait de travailler ensemble dans le cadre d'ateliers et d'autres formes participatives renforcera leur alphabétisation et leur sentiment d'appartenance à une communauté.
Puisqu'ils deviennent de plus en plus des intermédiaires clés de l'information, l'interrogation et le décorticage des algorithmes sera l'occasion de questionner les valeurs et les politiques au cœur de nos relations avec les organismes publics et les grandes plateformes. Le projet contribuera ensuite à structurer et à renforcer la coopération européenne et les valeurs communes en matière d'inclusion numérique par le partage et le transfert de bonnes pratiques au-delà des frontières. En définitive, le projet promeut l'engagement civique : le droit à l'information pour les citoyens de l'UE — promu dans les règlements de l'UE tels que la loi sur l'IA et la loi sur le service numérique — y compris dans le nombre croissant de cas où cette information concerne des décisions basées sur des algorithmes.
Nous sommes confrontés à des algorithmes tous les jours : dans le cadre du calcul automatisé des bénéfices sociaux, de la reconnaissance faciale dans les rues, du calcul d'une police d'assurance ou d'un chatbot qui nous aide à naviguer dans le labyrinthe d'un service en ligne. Pourtant, les algorithmes restent difficiles à comprendre. Il existe une fracture numérique dans la transparence algorithmique : seuls les experts ont le temps et les compétences nécessaires pour comprendre les algorithmes. Le défi de la transparence algorithmique se conjugue avec celui de l'inclusion numérique : comment comprendre, voire contester, une décision motivée par un processus algorithmique, sans les compétences nécessaires pour naviguer dans l'environnement numérique, voire sans accès à un ordinateur ou à une connexion internet ?
La compréhension des algorithmes est un défi pour tous : comme le montre clairement le cas des espaces publics numériques en Belgique, les utilisateurs des services d'inclusion numérique viennent de tous les horizons, de toutes les catégories sociales et de tous les âges. En France, une étude de l'Observatoire Data Publica indique que « cinq ans après l'entrée en vigueur de la loi pour une République numérique, la transparence des algorithmes publics est mise en œuvre de manière anecdotique » et souligne parmi les obstacles « la difficile appréhension d'un sujet technique par les élus et les agents du secteur public ». Un panel national de citoyens sur les besoins urgents en matière de recherche sur l'IA, mené par Waag Futurelab et commandé par le financeur néerlandais de la recherche NWO, a constaté que les citoyens ne comprennent souvent pas les composants et le fonctionnement des algorithmes et appellent à davantage de recherche sur la manière d'accroître la transparence de l'IA. Les besoins sont donc nombreux.
Avec un manque de transparence algorithmique et une compréhension insuffisante de ce sujet par les citoyens européens, c'est la question de l'exercice effectif de la citoyenneté et de l'engagement civique qui est concernée.
La transparence algorithmique ne se limite pas à la mise à disposition du code. Près de 20 ans de politiques d'ouverture des données ont montré que la transparence n'est que théorique sans une autre étape cruciale — la médiation — au sens de la communication, de l'explication et de la création de communautés de pratiques dédiées à la connaissance des algorithmes.
Le projet ALGO-LIT vise à cartographier, connecter, former et équiper les travailleurs de l'inclusion numérique et d'autres praticiens similaires sur le thème de la transparence algorithmique en France, en Belgique et aux Pays-Bas. S'appuyant sur des travaux antérieurs, notre méthodologie de recherche-action documentera les besoins et les pratiques des travailleurs de l'inclusion numérique dans le domaine de la littératie algorithmique et de la transparence ; partagera les pratiques et formera ces travailleurs ; co-construira et adaptera les outils avec la communauté ; promouvra et institutionnalisera les compétences dans le domaine de la littératie algorithmique et de la transparence à travers l'UE.
Datactivist (coordinateur, FR)
Datactivist est une société coopérative et participative qui se donne pour mission d’ouvrir les données et algorithmes.
Loup Cellard — Directeur scientifique, loup [at] datactivist [.] coop
Maëlle Fouquenet — Chercheuse senior, maelle [at] datactivist [.] coop
Margaux Larre-Perrez et Stéphanie Trichard — Administration et finance, margaux [at] datactivist [.] coop | stephanie [at] datactivist [.] coop
La Mednum (partenaire, FR)
Depuis 2017, La Mednum rassemble, dynamise et met en réseau les acteurs de la médiation numérique afin de leur permettre de trouver un cadre de coopération qui sera le plus adapté pour eux.
Quitterie de Marignan — Cheffe de projet, quitterie [.] demarignan [at] lamednum [.] coop
Adrien Pouillot — Chef de projet, adrien [.] pouillot [at] lamednum [.] coop
Ondine Vernier — Chargée de l'écosystème, ondine [.] vernier [at] lamednum [.] coop
Fari —Institut d’IA pour le Bien Commun (partenaire, BE)
Fari une initiative indépendante et à but non lucratif dans le domaine de l'intelligence artificielle, menée par la Vrije Universiteit Brussel (VUB) et l'Université libre de Bruxelles (ULB).
Alice Demaret — Cheffe de projet du pôle d'engagement citoyen de FARI, alice [.] demaret [at] fari [.] brussels
Léa Rogliano — Responsable du pôle d'engagement citoyen de FARI, lea [.] rogliano [at] fari [.] brussels
Carl-Maria Mörch, Co-directeur, FARI – Institut d’IA pour le Bien Commun, Université Libre de Bruxelles (ULB) Carl [.] Morch [at] fari [.] brussels
Waag Futurelab (partner, NL)
Waag renforce la réflexion critique sur la technologie, développe les compétences en matière de conception technologique et sociale et encourage l'innovation sociale. Il contribue ainsi à la recherche, à la conception et au développement d'une société durable et juste.
Danny Lämmerhirt — Chercheur senior, danny [at] waag [.] org
Tessel van Leeuwen — Chercheur, tessel [at] waag [.] org
Bente Zwankhuizen — Cheffe de projet, bente [at] waag [.] org
Le projet est co-financé pour trois ans par une subvention de l'UE dans le cadre du programme Erasmus + « partenariat coopératif » (Dec 2024-Dec 2027).
Les vues et opinions exprimées n’engagent que leur(s) auteur(s) et ne reflètent pas nécessairement celles de l’Union européenne ou de l’Agence Erasmus+ France / Education Formation. Ni l’Union européenne ni l’autorité chargée de l’octroi ne peuvent en être tenues pour responsables.