Van blackbox naar grip: AI in publieke organisaties
Betrouwbaarheid. Gelijkwaardigheid. Het zijn voorbeelden van publieke waarden: dat wat je als samenleving belangrijk vindt. Maar hoe zet je menselijke waarden in als het om technologie gaat? Anne Bonvanie, associate lector Ethiek & Technologie, vertelt ons over het project AI4ALL: “Als organisaties worden gedwongen om dingen sneller en efficiënter te doen, wordt al snel de stap naar AI gezet. De vraag is of het ook altijd een verantwoorde stap is.”
Gevraagd naar publieke waarden en hoe breed je dat begrip moet zien, steekt Anne Bonvanie gelijk van wal over ‘haar’ project: “We zoeken een methode waarmee overheden en publieke organisaties zelf kunnen inschatten welke publieke waarden voor specifieke projecten relevant zijn. Waarbij telkens de vraag wordt gesteld of er gebruik moet worden gemaakt van AI of niet. En zo ja, wat zijn dan de publieke waarden die in het gedrang kunnen komen; die misschien over het hoofd worden gezien of waarmee eerder al problemen waren?”
Als je een AI-tool traint met dezelfde data en de bias die daar al in zit, dan zal die tool de bias kopiëren en versterken.
Waarden onder druk
Bij het project AI4ALL hoort een breed consortium. Zo gaan twee onderzoekers van de Vrije Universiteit Amsterdam kijken welke publieke waarden mensen precies herkennen en wat ze daaronder verstaan. Ook duiken diezelfde onderzoekers in het Algoritmeregister van de overheid, onder andere om te zien hoe publieke organisaties nu al gebruik maken van AI, en of hierbij al publieke waarden in het gedrang komen.
Een bekend voorbeeld waarbij een publieke waarde als ‘gelijkheid’ gaandeweg helemaal vergeten leek te zijn, is de Toeslagenaffaire. Deze affaire ontstond onder andere door het toepassen van algoritmes die vooroordelen versterkten. Bij de inzet van AI zijn er vergelijkbare valkuilen. Anne geeft aan dat er problemen kunnen ontstaan als je kunstmatige intelligentie traint met bestaande data: “Dan heb je te maken met oordelen die eerder geveld zijn, bijvoorbeeld door medewerkers van publieke organisaties. Die medewerkers kunnen bevooroordeeld geweest zijn toen ze hun conclusies trokken, ook al gebeurde dat waarschijnlijk onbewust. Als je een AI-tool traint met dezelfde data en de bias die daar al in zit, dan zal die tool de bias kopiëren en versterken.”
Bij het versterken van bias – oftewel vooroordelen – kun je bijvoorbeeld denken aan een situatie waarin mensen met een laag inkomen meermaals zijn afgewezen bij het aanvragen van een vergunning. De factor ‘laag inkomen’ zal dan steeds weer nadelige gevolgen hebben, ook al wordt die specifieke variabele misschien niet eens bewust door iemand ingevoerd. Zo’n variabele kan door een AI-toepassing namelijk ook worden afgeleid uit ándere variabelen, zoals een postcode, school, vereniging of een combinatie daarvan.
Het gaat er om dat je als publieke organisatie grip krijgt op wat er gebeurt met die AI.
Versnippering
Een andere valkuil kan ontstaan doordat AI-tools vaak worden ontwikkeld om met zo min mogelijk energie de meest acceptabele uitkomst te geven. “Soms is het dan makkelijker om bepaalde situaties maar niet mee te nemen,” zegt Anne. “Als je je processen als organisatie wilt versnellen, dan kan het aantrekkelijk zijn om bijvoorbeeld de 3% meest ingewikkelde gevallen er gewoon uit te laten. Een organisatie die zo te werk gaat, behandelt gelijke burgers op een ongelijke manier. Laatst gebeurde er nog iets dergelijks in België. Daar was een gemeente waar ze hebben gezorgd dat mensen met een niet-Belgische achternaam vijf tot tien keer zo lang moesten wachten voordat ze zich in konden schrijven als inwoner. Dan heb je dus te maken met een vorm van discriminatie; iets wat je niet in een publieke instelling wilt hebben.”
Hoe dit soort verkeerde AI-afslagen te voorkomen? Anne: “Het gaat er om dat je als publieke organisatie grip krijgt op wat er gebeurt met die AI. Wij gaan werken aan een betere positie voor werknemers die met AI-tools hebben te maken. Wat je nu vaak ziet is dat AI-tools voor medewerkers als een blackbox zijn. De publieke waarden die een organisatie heeft – zoals eerlijkheid of transparantie – kunnen in een tool versnipperd raken. Stel je voor, je hebt een gezin aan je bureau zitten en je weet dat je die mensen eerlijk moet behandelen, maar de computer zegt: dit is het oordeel. Dan is het voor jou onmogelijk om te controleren of dat een eerlijk oordeel is. Je kunt ook niet transparant zijn over waarom dat gezin zo beoordeeld is, en je kunt er zelf op geen enkele manier nog een eigen draai aan geven.”
Van ontwikkelaar tot eindgebruiker
Dat zou het project AI4ALL graag anders zien. De komende vijf jaar wordt er bij vijf publieke organisaties onderzoek gedaan: de gemeente Zwolle, Provincie Zeeland, de Politie Oost-Nederland, de Belastingdienst en de SVB. Er zal worden meegekeken bij lopende projecten, die zich in verschillende fases bevinden. Uiteindelijk moet die brede manier van onderzoeken resulteren in een methode waarmee organisaties zelf kunnen uitvinden welke publieke waarden relevant zijn voor hun projecten. AI4ALL wil ook praktische tools ontwikkelen, waarmee ambtenaren en AI-ontwikkelaars samen kunnen zorgen voor een goede verankering van die publieke waarden in AI-toepassingen. Daar kunnen ambtenaren beter mee werken, en burgers profiteren daar weer van.
Natuurlijk komen dat soort praktische tools er niet vanzelf. Daarom betrekt AI4ALL ook AI-ontwikkelaars bij het project. Hoewel AI-ontwikkelaars vanwege de maatschappelijke relevantie graag samenwerken met publieke organisaties, weten ze vaak niet hoe ze publieke waarden goed in hun tools moeten integreren. Dit komt onder andere doordat ambtenaren die deze tools moeten gebruiken het lastig vinden om concreet onder woorden te brengen om welke waarden het gaat. Ook krijgen ontwikkelaars te maken met managers of andere betrokkenen die – mede door alle onduidelijkheid – teveel risico’s zien, waardoor een project terug naar de tekentafel moet of zelfs vastloopt.
Wat een ambtenaar beter kan dan een tool, dát willen we weer teruggeven aan die ambtenaar zelf.
Radertje
Hoe krijg je dan wél meer duidelijkheid over publieke waarden en hoe deze met een positief effect kunnen worden ingezet? Dit kan – naast het bevragen van een brede burgerdoelgroep en het meekijken met lopende projecten – onder andere worden bereikt door meer aandacht te hebben voor transparantie. Anne licht toe: “Je kunt zorgen dat een AI-tool niet alleen op de achtergrond een berekening maakt en jou een uitkomst geeft, maar ook laat zien welke factoren in die berekening worden meegenomen. Ook de tools waarover je al beschikt kunnen zo transparanter worden gemaakt. Zo leer je om zo’n AI-tool te trainen, en hoe je zelf kunt bepalen welke variabelen je meeneemt.”
Anne ziet een AI-tool vooral als een radertje in een groter geheel, waarin ambtenaren zeker ook een belangrijke rol spelen: “Wat een ambtenaar beter kan dan een tool, dát willen we weer teruggeven aan die ambtenaar zelf. We moeten het hele plaatje meenemen, waarbij het niet alleen gaat om de publieke waarden of de technologie, maar ook om de mensen die de technologie gaan gebruiken. Als we een van die drie daarbuiten laten, dan zul je zien dat er problemen gaan ontstaan. Het is ook een optie om werknemers meer in staat te stellen om publieke waarden echt uit te voeren. Denk aan een AI-tool die verschillende oplossingen voorstelt, waarbij de ene oplossing bijvoorbeeld eerlijker kan zijn, maar de andere weer een stuk sneller of economisch voordeliger. Een ambtenaar die mensen tegenover zich heeft zitten kan dan zelf de beste oplossing kiezen.”
Vertrouwen
AI4ALL gaat niet alleen over technologie en de medewerkers die daarmee werken. Het vergroten van het vertrouwen dat burgers in de overheid hebben is een belangrijk, achterliggend doel: “We hopen dat we daaraan een bijdrage kunnen leveren. Er zijn namelijk best veel situaties waarin burgers het gevoel hebben dat ze niet gehoord worden. Of dat nou op hoog niveau gaat of over windmolens in je wijk, of op een lager niveau over het terugbetalen van een toeslag. We denken dat het meenemen van publieke waarden in de AI-tools die organisaties inzetten ervoor kan zorgen dat burgers het gevoel krijgen dat er beter naar ze geluisterd wordt.”
Aan het eind van de rit zou Anne graag zien dat AI-tools mede dankzij AI4ALL op een praktische en waardevolle manier worden ingezet door publieke organisaties. Waarbij ontwikkelaars succesvolle tools ook kunnen aanbieden aan andere klanten, die op hun beurt weer bewuster zullen worden van de waarden die ingebakken zitten in hun tools en processen. Met de snelheid van technologische ontwikkelingen is het in dit verband soms een uitdaging om ethiek voldoende ruimte te geven. Anne vergelijkt het met de fabel over een schildpad en een haas die een hardloopwedstrijd tegen elkaar doen. Een fabel waarin de haas iets te overtuigd is van zijn eigen looptechniek, waardoor de schildpad uiteindelijk toch maar mooi – in alle rust – als winnaar over de finishlijn komt.
Fotografie: Thomas Busschers
Meer informatie over AI4ALL
Binnen Saxion dragen meerdere lectoraten bij aan AI4ALL. Lector Jeroen Linssen van Ambient Intelligence kijkt samen met de TU Delft hoe publieke waarden in technische zin naar concrete tools kunnen worden vertaald. ‘Annes lectoraat’ Ethiek & Technologie kijkt vervolgens hoe een gemeente, een provincie of een andere organisatie die vertaalslag zelf kan maken. Op het gebied van werknemers werkt het lectoraat Employability Transition van Stephan Corporaal samen met de Radboud Universiteit. Waarbij er vooral wordt gekeken hoe je ‘botsingen tussen waarden’ kunt herkennen en voorkomen, en hoe je bij de inrichting van een werkplek publieke waarden zoveel mogelijk kunt ondersteunen.
Voor meer informatie over het consortium van AI4ALL en andere projecten die zijn toegewezen binnen de call ‘Waarden in Transitie(s)’, ga naar de NWO-site.