Algoritmen en gerelateerde AI-producten worden steeds meer gebruikt door publieke en private diensten. Daarom zorgt het verbeteren van de digitale geletterdheid van ambtenaren en andere professionals die met algoritmische systemen werken, en activisten die opkomen voor digitale rechten, ervoor dat deze systemen begrepen worden, en dat zij burgers kunnen helpen om problemen met deze systemen aan te pakken. Door te inventariseren welke competenties er nodig zijn om algoritmen te begrijpen en te gebruiken, en deze vaardigheden ook te trainen, draagt dit project bij aan de digitale transformatie van de samenleving met oog voor (de rechten van) burgers.
De burgers die het grootste risico lopen om getarget of gediscrimineerd te worden door algoritmen, hebben hoogstwaarschijnlijk ook de minste informatie en mogelijkheden om actie te ondernemen. Dit is problematisch. In Frankrijk onderzocht Lighthouse Reports in samenwerking met Le Monde een algoritme gebruikt door de Franse Caisse Nationale des Allocations Familiales (CNAF), de instelling die verantwoordelijk is voor het Franse socialezekerheidsstelsel. Het algoritme, dat al meer dan 10 jaar wordt gebruikt, probeert te voorspellen welke uitkeringsontvangers fraude plegen.
Dit systeem richt zich op mensen in de meest precaire situaties, en maakt het nagenoeg onmogelijk om fraude door mensen met een hoger inkomen ook te onderzoeken. Ook de Nederlandse overheid maakt gebruik van een (geheim) algoritme, SyRI, om mogelijke uitkeringsfraude op te sporen. Burgerrechtenactivisten hebben de zaak voor de rechter gebracht en zijn erin geslaagd om overheidsorganisaties aan het denken te zetten over het gebruik van minder onderdrukkende alternatieven. Ook onderzoekers in België maken zich zorgen dat dergelijke tools in gebruik zijn of zijn geweest. Er bestaan nog veel meer voorbeelden van schadelijke algoritmen in andere EU-landen; deze zijn gedocumenteerd door de in Berlijn gevestigde NGO Algorithm Watch.
Door de kennis te vergroten van professionals die met algoritmes werken over die algoritmen, zullen zij beter in staat zijn om kritiek te leveren op en weerstand te bieden tegen nieuwe AI-producten die ontwikkeld en gebruikt worden – met name producten die voortkomen uit de verspreiding van generatieve AI via zoekmachines of chatbots - en die vaak aan burgers worden opgelegd zonder democratisch toezicht.
ALGO->LIT anticipeert en reageert op een groeiende vraag naar ambtenaren en medewerkers van maatschappelijke organisaties die burgers uitleggen hoe ze om moeten gaan met situaties waarin algoritmen beslissingen nemen (bijvoorbeeld naar aanleiding van het indienen van belastingen of het schrijven van een prompt in een Gen AI chatbot). Door samen te werken met professionals, zullen we vaststellen welke algoritmen moeten worden uitgelegd en hoe dat moet gebeuren. Samenwerken door middel van engagementworkshops en participatieve initiatieven zal de digitale geletterdheid en het gemeenschapsgevoel van professionals vergroten.
Omdat algoritmes steeds meer belangrijke informatiebemiddelaars worden, biedt het onderzoeken van algoritmes de kans om de waarden en het beleid dat onze relatie met overheidsinstanties en Big Tech platforms definieert, te bevragen. Het project zal vervolgens helpen om de Europese samenwerking en gemeenschappelijke waarden op het gebied van digitale inclusie te structureren en te versterken door best practices binnen de EU te delen. Dit project stimuleert de betrokkenheid van burgers: het recht op informatie en uitleg over algoritmen voor EU-burgers is beschermd door EU-wetten als de AI Act en de Digital Services Act. Specifiek gaat dit ook over inzicht in algoritmen met een zogeheten ‘hoog risico’ die gebruikt worden om beslissingen te nemen met grote impact op de levens van burgers.
We hebben elke dag met algoritmen te maken: als onderdeel van de geautomatiseerde toekenning van overheidssubsidies; door gezichtsherkenning op straat; het berekenen van een verzekeringspolis, of een chatbot die fungeert als helpdesk bij een (online) winkel. Toch blijven algoritmen moeilijk te begrijpen. Er is een digitale kloof in algoritmische transparantie: alleen experts hebben de tijd en de vaardigheden om algoritmes te begrijpen. Uitdagingen rond algoritmische transparantie worden dus gecombineerd met uitdagingen rond digitale inclusie: hoe kun je een beslissing die is ingegeven door een algoritmisch proces begrijpen of zelfs aanvechten, zonder de vaardigheden die nodig zijn om je weg te kunnen vinden in een digitale omgeving, of zonder toegang tot een computer of een internetverbinding ?
Het begrijpen van algoritmen is voor iedereen een uitdaging: zoals de Openbare Digitale Ruimten in België laten zien, zijn gebruikers van digitale inclusiediensten afkomstig uit alle lagen van de bevolking, sociale- en leeftijdscategorieën. Uit onderzoek van het Data Publica Observatory in Frankrijk blijkt dat - vijf jaar na de inwerkingtreding van de wet voor een digitale republiek - de transparantie van publieke algoritmen maar zelden wordt gewaarborgd. Ook benadrukt het onderzoek een van de obstakels: ambtenaren en andere mensen werkzaam in de publieke sector vinden dit technische onderwerp maar moeilijk te begrijpen. Uit een nationaal burgerpanel over dringende onderzoeksbehoeften op het gebied van AI, dat werd uitgevoerd door Waag Futurelab in opdracht van NWO, bleek dat burgers de verschillende onderdelen en de werking van algoritmen vaak niet begrijpen. Daarom deden ze een oproep naar meer onderzoek over het vergroten van de transparantie van AI. De behoeften zijn dus wijdverspreid.
Door een gebrek aan algoritmische transparantie en onvoldoende kennis over dit onderwerp bij Europese burgers, is de vraag hoe effectief burgerschap en maatschappelijke betrokkenheid kunnen worden uitgeoefend. Algoritmische transparantie gaat niet alleen over het beschikbaar maken van code. Bijna 20 jaar open databeleid en datageletterdheid initiatieven hebben aangetoond dat transparantie slechts bij theorie blijft als er geen bemiddeling bij komt kijken – uitleg, communicatie en het opzetten van gemeenschappen of instellingen die zich inzetten om algoritmen begrijpelijk te maken.
Het ALGO-LIT-project heeft als doel om digitale hulpverleners (zoals mensen op het gebied van digitale inclusie) in Frankrijk, België en Nederland in kaart te brengen, te verbinden en te trainen op het gebied van algoritmische transparantie. Onze actie-onderzoeksmethodologie zal de behoeften en praktijken van digitale hulpverleners op het gebied van algoritmische geletterdheid en transparantie documenteren. Hierop voortbouwend gaan we best-practices delen, hulpverleners trainen en samen met digitale hulpverleners tools bouwen die hen bij hun werk kunnen ondersteunen om algoritmes toe te lichten. De resulterende vaardigheden op het gebied van algoritmische geletterdheid en transparantie gaan we in de EU promoten en institutionaliseren.
Datactivist (coördinator, FR)
Datactivist is een Frans coöperatief en participatief bedrijf dat in 2016 werd opgericht. De missie van Datactivist is om data open te stellen en bruikbaar te maken.
Loup Cellard — Onderzoeksleider, loup [at] datactivist [.] coop
Maëlle Fouquenet — Senior onderzoeker, maelle [at] datactivist [.] coop
Margaux Larre-Perrez en Stéphanie Trichard — financiële administratie, margaux [at] datactivist [.] coop | stephanie [at] datactivist [.] coop
La Mednum (partner, FR)
Sinds 2017 brengt La Mednum stimuleert en verbindt Franse medewerkers op het gebied van digitale inclusie, zodat zij een samenwerkingskader kunnen vinden dat het beste bij hen past.
Adrien Pouillot — Projectmanager, adrien [.] pouillot [at] lamednum [.] coop
FARI - AI for the Common Good Institute (partner, BE)
FARI - AI for the Common Good Institute is een non-profit universitair instituut voor AI, data en robotica gericht op het algemeen belang. FARI is gezamenlijk opgericht door twee Brusselse universiteiten (VUB & ULB) - en verenigt interdisciplinaire expertise in 10 onderzoeksgroepen over AI, data, robotica, sociale wetenschappen, ethiek en recht. FARI doet onderzoek en bouwt bruggen met overheidsadministraties, industrie en burgers, en promoot duurzame AI, data en robotica met een focus op stedelijke en publieke domeinen zoals gezondheid, mobiliteit, duurzame robotica, klimaat en energie, en een participatieve en inclusieve samenleving.
Alice Demaret — AI Impact Advisor, alice [.] demaret [at] fari [.] brussels
Léa Rogliano — Head of FARI's Citizen Engagement Hub, lea [.] rogliano [at] fari [.] brussels
Carl-Maria Mörch — Co-director, FARI – AI for the Common Good Institute, Université Libre de Bruxelles (ULB), Carl [.] Morch [at] fari [.] brussels
Waag Futurelab (partner, NL)
Waag versterkt kritische reflectie op technologie, ontwikkelt technologische en sociale ontwerpvaardigheden en stimuleert sociale innovatie. Waag werkt in een team van ontwerpers, kunstenaars en wetenschappers, dat publieke onderzoeksmethoden toepast op technologie en de samenleving. Daarmee stelt Waag zoveel mogelijk mensen in staat mee te ontwerpen aan een open, eerlijke en inclusieve toekomst.
Danny Lämmerhirt — Senior onderzoeker, danny [at] waag [.] org
Tessel van Leeuwen — Onderzoeker en conceptontwikkelaar, tessel [at] waag [.] org
Bente Zwankhuizen — Projectmanager, bente [at] waag [.] org
Het project wordt voor drie jaar gefinancierd door een EU Erasmus+-subsidie (samenwerkingsverband) (december 2024-december 2027).
Gefinancierd door de Europese Unie. De geuite meningen en standpunten zijn die van de auteur(s) en weerspiegelen niet die van de Europese Unie of het Franse Erasmus + Agentschap. Noch de Europese Unie, noch de subsidieverlenende autoriteit kunnen hiervoor verantwoordelijk worden gehouden.