Gratis boekenweekgeschenk bij een bestelling boven de €15,- (geldt alleen voor Nederlandstalige boeken)

Achtergrond

In de schaduw van AI - ‘Roept belangrijke vragen op’

In In de schaduw van AI – Leven in een algoritmische tijd brengt Madhumita Murgia een reeks indringende en soms schokkende verhalen samen over mensen wier levens diepgaand zijn beïnvloed door kunstmatige intelligentie. Ze laat zien hoe AI in verschillende contexten niet alleen kansen biedt, maar ook ethische dilemma’s en onbedoelde gevolgen met zich meebrengt.

Henny Portman | DALL-E | 13 februari 2025 | 11-15 minuten leestijd

In deze recensie van In de schaduw van AI wil ik niet de verhalen zelf bespreken, maar stilstaan bij het onderliggende gebruik van AI. De technologie die Murgia beschrijft, vormt immers de kern van de impact die ze blootlegt. AI-systemen zijn vaak ontworpen met een focus op efficiëntie en winst, maar de gevolgen van hun implementatie reiken veel verder. Of het nu gaat om de inzet van algoritmes in de gezondheidszorg, arbeidsmarkt of bij overheidsdiensten, de keuzes die worden gemaakt in het ontwerp en gebruik van AI zijn allesbepalend voor de levens die ermee worden geraakt.

Je levensonderhoud

Achter de indrukwekkende prestaties van kunstmatige intelligentie schuilt een minder zichtbaar, maar onmisbaar verhaal. Techreuzen trainen en implementeren AI-systemen door enorme hoeveelheden data uit de echte wereld te gebruiken. Maar deze data wordt niet zomaar verzameld of verwerkt door de technologie zelf. Het werk wordt gedaan door een wereldwijd leger van laagbetaalde arbeiders met beperkte digitale vaardigheden en onzekere bestaansmiddelen. Deze ondergewaardeerde werkers onthullen een publiek geheim: AI ‘leert’ niet autonoom, maar is volledig afhankelijk van de input van miljoenen mensen.

Dit onzichtbare personeelsbestand bestaat vaak uit kwetsbare groepen. Gemarginaliseerde jongeren, alleenstaande moeders, minderheden, migranten en vluchtelingen vormen de ruggengraat van het werk dat AI voedt. Bijna 90% van hen heeft echter geen idee dat hun werk verband houdt met kunstmatige intelligentie. Ze categoriseren data, modereren content en trainen algoritmes, maar blijven anoniem en zonder erkenning in de schaduw van technologische vooruitgang.

Net als bij eerdere industriële en technologische revoluties wordt ook deze vooruitgang gedragen door mensen aan de onderkant van de samenleving. Als AI inderdaad de volgende grote revolutie is, dan zijn de arbeiders die de technologie trainen en onderhouden de stille krachten achter deze transformatie. Het is hoog tijd om hun cruciale rol te erkennen en hun positie te verbeteren, zodat deze revolutie niet opnieuw ongelijkheid en uitbuiting in stand houdt.

Je lichaam

Deepfake-porno eist in hoog tempo steeds meer slachtoffers. Dit is het directe gevolg van technologie die niet alleen steeds geavanceerder wordt, maar ook betaalbaarder en eenvoudiger te gebruiken is. Wat deze trend extra verontrustend maakt, is dat deepfakes geen toevallig bijproduct zijn van kunstmatige intelligentie. Het zijn doelgerichte hulpmiddelen die bewust worden ingezet om schade aan te richten en mensen te vernederen.

De gevolgen hiervan reiken ver, vooral omdat de technologie voor vrijwel iedereen toegankelijk is. Met slechts enkele klikken kunnen kwaadwillenden iemands gezicht in compromitterende beelden plaatsen, met ingrijpende emotionele, sociale en soms zelfs juridische gevolgen voor de slachtoffers. Deze situatie wordt verergerd door een structureel gebrek aan empathie: wetgeving die tekortschiet in bescherming en online platforms die weigeren verantwoordelijkheid te nemen voor de verspreiding van dergelijke content.

De combinatie van technologische vooruitgang, gemakkelijke toegang en een falende regulering schept een gevaarlijke situatie waarin daders vrijwel ongestoord hun gang kunnen gaan. Zonder strikte wetten en een proactieve houding van grote platforms blijft het aantal slachtoffers toenemen. Het is essentieel dat we deze technologie en de manier waarop zij wordt misbruikt, aan banden leggen om verdere schade te voorkomen.

Je identiteit

Ons gezicht is de brug tussen wie we van binnen zijn en hoe we ons naar buiten presenteren. Het is onze meest zichtbare en herkenbare identiteit, die zowel ons publieke als intieme zelf definieert. Toch wordt dit unieke kenmerk steeds vaker onderworpen aan technologieën die diep in onze persoonlijke levenssfeer binnendringen. Surveillancecamera’s houden ons constant in de gaten, registreren onze bewegingen en slaan beelden op van iedereen die zich ergens bevindt. Dit vormt een directe inbreuk op onze privacy.

Daar blijft het niet bij. Gezichtsherkenningssystemen voegen een extra laag toe aan deze controle. Ze analyseren gezichten, maar maken daarbij regelmatig fouten, met soms ingrijpende gevolgen. De software die deze systemen aanstuurt, trekt verkeerde conclusies, wat kan leiden tot onterechte beslissingen en discriminerende uitkomsten.

Ondanks deze risico’s ontbreekt het momenteel aan duidelijke wetten die het gebruik van gezichtsherkenning door overheden reguleren. Ook is er weinig bescherming tegen surveillance door commerciële partijen. De EU zet met de voorgestelde AI Act een eerste stap om deze juridische leemte op te vullen. Deze wet moet niet alleen grenzen stellen aan het gebruik van gezichtsherkenning, maar ook zorgen voor betere bescherming van onze fundamentele rechten in een wereld waarin technologie steeds dieper in ons dagelijks leven doordringt.

Je gezondheid

Kunstmatige intelligentie heeft, mits goed ontworpen en ethisch ingezet, het potentieel om levens te redden, vooral van mensen in hoge nood. AI-systemen die klinisch zijn getest, kunnen tegenwoordig medische scans met dezelfde nauwkeurigheid lezen als menselijke radiologen. Dit opent de deur naar vroege diagnoses van levensbedreigende ziekten en maakt de ontwikkeling van nieuwe behandelmethoden mogelijk. Vooral in rurale, afgelegen of arme gebieden waar het tekort aan medisch personeel groot is, kan AI een uitkomst bieden. Systemen die röntgenfoto’s nauwkeurig kunnen analyseren, kunnen bijvoorbeeld patiënten helpen die anders geen toegang zouden hebben tot dergelijke medische expertise.

Toch kleeft er een schaduwzijde aan deze technologische vooruitgang. Om AI-systemen te verbeteren en de bias eruit te halen, verzamelen technologiebedrijven enorme hoeveelheden data, vaak afkomstig van mensen in ontwikkelingslanden. Ironisch genoeg profiteren deze gemeenschappen zelf nauwelijks van de voordelen die deze technologie biedt, terwijl grote techbedrijven de maximale economische waarde uit hun data halen. Dit fenomeen, dat wordt aangeduid als digitaal kolonialisme, legt de ongelijkheid bloot die schuilgaat achter de glans van AI-innovaties.

Hoewel AI levens kan redden en kansen kan creëren, vraagt de huidige praktijk om kritische reflectie. Alleen door eerlijker te handelen en de voordelen van AI breder te delen, kan de technologie werkelijk bijdragen aan een rechtvaardigere wereld.

Je vrijheid

Voorspellende politiealgoritmes worden vaak gepresenteerd als een efficiënte en goedkope manier om schaarse middelen beter te verdelen. In theorie kunnen deze systemen helpen misdrijven te voorkomen, in plaats van alleen achteraf de gevolgen aan te pakken. Maar de praktijk roept serieuze vragen op over de ethische en sociale impact van deze technologie.

Er zijn aanwijzingen dat deze algoritmes racistisch kunnen zijn, zelfs als dat niet expliciet de bedoeling is. Ook wanneer ras niet rechtstreeks wordt meegenomen in het besluitvormingsproces, kunnen andere variabelen, zoals eerdere arrestaties, getuige zijn van misdrijven, wonen in bepaalde buurten of simpelweg armoede bijdragen aan de versterking van institutioneel racisme. AI-systemen maken immers gebruik van historische data, die vaak doordrenkt is van vooroordelen en ongelijke structuren.

Een voorbeeld dat in het boek uitgebreid wordt besproken, is een Amsterdams gezin waarvan twee kinderen op de Top400- en Top600-lijsten van potentiële probleemjongeren stonden. Hoewel het systeem slechts een bescheiden succespercentage kent, heeft het een enorme impact op de mensen die erin worden opgenomen. Gezinnen worden gestigmatiseerd en onderworpen aan intensieve bemoeienis, zonder dat duidelijk is of dit werkelijk helpt.

AI-gestuurd politiewerk blijkt in veel gevallen minder een benadering van zorg en vergiffenis te zijn, en meer een koude berekening van de kans dat iemand de fout in zal gaan. Dit roept belangrijke vragen op over de balans tussen preventie, rechtvaardigheid en de bescherming van individuele rechten. Terwijl de technologie zich verder ontwikkelt, blijft de vraag hoe we ervoor zorgen dat deze systemen niet bestaande ongelijkheden versterken, maar juist bijdragen aan een eerlijkere samenleving.

Je vangnet

In 2019 publiceerde de Verenigde Naties een vernietigend rapport over de opkomst van de digitale verzorgingsstaat en de toenemende dataficatie van overheidstaken. Het rapport stelt scherp dat digitale technologieën, waaronder AI, niet bijdragen aan een rechtvaardigere samenleving, maar vooral worden ingezet om arme mensen te voorspellen, aan te wijzen, te surveilleren, op te sporen, te controleren en te straffen.

Over de hele wereld zijn AI-systemen ontwikkeld en toegepast om te bepalen wie in aanmerking komt voor sociale bescherming en assistentie. Deze systemen zijn vaak doordrenkt van vooroordelen en gebrekkige logica, maar niemand neemt verantwoordelijkheid voor de gevolgen. Burgers die afhankelijk zijn van deze systemen worden geconfronteerd met willekeur, bureaucratische obstakels en gebrek aan transparantie. Tegelijkertijd blijken veel van deze projecten inefficiënt en een verspilling van publieke middelen.

De echte winnaars zijn de technologiebedrijven die deze systemen ontwikkelen. Terwijl overheden enorme bedragen investeren in de belofte van efficiëntere dienstverlening, zien de tech-bedrijven hun winst groeien, zonder zich druk te maken over de maatschappelijke schade die hun technologie aanricht.

Het rapport legt bloot dat de digitale verzorgingsstaat niet de beloofde vooruitgang brengt, maar juist bijdraagt aan het versterken van ongelijkheid en het ontmantelen van de sociale zekerheid. Het is een waarschuwing tegen het blind vertrouwen in technologie en een oproep om verantwoordelijkheid te nemen voor de impact van deze systemen op kwetsbare groepen in de samenleving.

Je baas

Wereldwijd groeit een leger van meer dan een miljard mensen die dagelijks voor algoritmes werken. Zij vervoeren mensen, bezorgen levensmiddelen, boodschappen, medicijnen, meubilair en boeken. Op fietsen, motoren, in auto’s en vrachtwagens bewegen ze zich voort, aangestuurd door apps die gebruikmaken van AI-systemen. Deze apps fungeren als onzichtbare, onpersoonlijke bazen die via de telefoon bevelen uitdelen.

De software achter deze systemen bepaalt alles. Het wijst opdrachten toe aan koeriers, verifieert hun identiteit, berekent dynamische vergoedingen per klus, stelt bonussen vast, spoort fraude op en neemt zelfs beslissingen over wie wordt aangenomen of ontslagen. Deze AI-gestuurde processen bepalen de dagelijkse realiteit van miljoenen werkers, zonder dat zij enige controle hebben over de uitkomsten of de werking van de algoritmes.

Het werk dat door deze algoritmes wordt beheerst, is vaak ondoorzichtig en onvoorspelbaar. Koeriers en chauffeurs weten nooit precies hoe hun vergoeding wordt berekend of waarom ze bepaalde opdrachten krijgen toegewezen. De beslissingen van deze digitale bazen zijn niet te controleren, maar hebben wel directe en ingrijpende gevolgen voor het inkomen en de bestaanszekerheid van de mensen die eraan onderworpen zijn.

Deze nieuwe manier van werken laat zien hoe kunstmatige intelligentie niet alleen technologie, maar ook de relatie tussen arbeid en macht ingrijpend verandert. De onzichtbare algoritmes sturen en beheersen, terwijl de mensen die voor hen werken nauwelijks inspraak of bescherming hebben. Het is een wereld waarin de menselijke factor steeds meer in de schaduw van AI verdwijnt.

Je rechten

Nu algoritmes en generatieve AI steeds dieper doordringen in ons dagelijks leven, beginnen de eerste slachtoffers van deze systemen eindelijk verhaal te halen. Geautomatiseerde beslissingen hebben vaak verregaande gevolgen, maar blijven voor veel mensen grotendeels onzichtbaar en ondoorgrondelijk. Dit roept de vraag op: hoe kunnen we deze ongrijpbare technologieën aanpakken en verantwoordelijk houden?

In het boek wordt mensenrechtenadvocaat Cori Crider naar voren gebracht als een inspirerende stem in deze strijd. Volgens haar ligt de sleutel in het mededingingsrecht. Crider ziet antikartelwetgeving als de aangewezen weg om Big Tech te bestrijden. Door de marktmacht van technologiebedrijven aan banden te leggen, hoopt ze niet alleen een eerlijker speelveld te creëren, maar ook de schadelijke impact van hun algoritmes te beperken.

Haar benadering is meer dan een juridische strategie; het is een oproep tot structurele verandering. Door de machtsconcentratie van Big Tech te doorbreken, wordt ruimte gecreëerd voor meer transparantie, verantwoordelijkheid en controle. Het is een beginpunt om ervoor te zorgen dat technologie niet alleen ten dienste staat van bedrijven, maar ook van de mensen die ermee te maken krijgen. Crider’s visie laat zien dat de strijd tegen de schaduwzijden van AI niet onhaalbaar is, maar vraagt om vastberadenheid, creativiteit en het gebruik van de juiste juridische middelen.

Je toekomst

In het hoofdstuk over de toekomst wordt een verontrustend beeld geschetst van delen van China, waar een netwerk van camera’s fungeert als zenuwuiteinden die een centraal digitaal brein voeden. Dit systeem van technologische controle is diep verweven met de Chinese samenleving en opereert op een multidimensionale, invasieve manier. De software registreert de bewegingen van mensen die als mogelijk problematisch worden beschouwd: vermeende herrieschoppers, criminelen, mensen met geestelijke gezondheidsproblemen, burgers met sterke politieke overtuigingen of degenen die klachten hebben ingediend bij de centrale overheid over bureaucratische misstanden.

Dit systeem belichaamt het concept van datakolonialisme in zijn meest extreme vorm. Het fungeert als een onzichtbare hand die elke vorm van onvrede of verzet in de kiem smoort, vooral onder de meest kwetsbare groepen in de samenleving. Burgers bevinden zich in een situatie waarin zij de algoritmes niet begrijpen en geen inzicht hebben in de criteria die de overheid hanteert om hen te beoordelen. Het resultaat is een sfeer van wantrouwen en onzekerheid; mensen weten niet meer wie ze kunnen vertrouwen of hoe ze hun rechten kunnen verdedigen.

Voor velen voelt het alsof ze vastzitten in een kafkaësk systeem, waar de regels ondoorzichtig zijn en beslissingen onverklaarbaar. Dit technologische controleapparaat legt niet alleen de macht van data bloot, maar ook de verpletterende impact van een systeem dat menselijke waardigheid en vrijheid ondergeschikt maakt aan totale controle. Het hoofdstuk schetst daarmee niet alleen een beeld van een surveillancemaatschappij, maar ook een waarschuwing voor de implicaties van dergelijke systemen wereldwijd.

Je samenleving

Het concept van een machtige, niet-gereguleerde technologie die rechten beknot en de samenleving op zijn kop zet heeft ondertussen de mainstream bereikt. ChatGPT heeft ondertussen de wereld veroverd. Enerzijds verhoogt het de dagelijkse productiviteit om bijvoorbeeld klachtenbrieven te schrijven, om toespraken te schrijven, voorstellen en ideeën te analyseren en tekortkomingen te vinden in de gehanteerde argumentatie en logica. Anderzijds zijn er mensen die vinden dat het allemaal veel te snel gaat, en dat het ontbreekt aan behoedzaamheid, supervisie en regulering. We leven in een tijd van exponentiele veranderingen en onzekerheid die ons dwingt om na te denken over lastige vragen: wie bezitten de rechten op de collectieve creatieve output van de mensheid, en kan die output worden nagemaakt door AI-software om te worden verkocht?

Conclusie

In de schaduw van AI roept belangrijke vragen op over wie profiteert van deze technologie en wie de lasten draagt. Ze legt een systeem bloot waarin de beloftes van vooruitgang vaak gepaard gaan met schaduwzijden van ongelijkheid, uitsluiting en onrecht. In plaats van AI te zien als een neutraal hulpmiddel, herinnert ze ons eraan dat elke toepassing wordt gekleurd door de waarden en belangen van degenen die de technologie ontwikkelen en inzetten. Juist dat maakt haar boek meer dan een verzameling verhalen – het is een oproep tot reflectie over de manier waarop we kunstmatige intelligentie vormgeven en gebruiken.

Over Henny Portman

Henny Portman is eigenaar van Portman PM[O] Consultancy en biedt begeleiding bij het invoeren en verbeteren van project-, programma- en portfoliomanagement inclusief het opzetten en verder ontwikkelen van PMO's. Hij is auteur en blogger en publiceert regelmatig artikelen.

Deel dit artikel

Wat vond u van dit artikel?

0
0

Populaire producten

    Personen

      Trefwoorden