Wat zegt AI zelf over het Sociaal AI lab van Rotterdam?
De gemeente Rotterdam heeft in nauwe samenwerking met de Hogeschool Rotterdam, de Erasmus Universiteit en het Techniek College een Sociaal AI Lab in het leven geroepen. Doel: van kunstmatige intelligentie een instrument maken dat daadwerkelijk door en voor alle burgers kan worden ingezet en niet een wapen wordt in handen van bevoorrechten, wier macht berust op politiek, geld of specialistische kennis.
Dat is een mooi doel. Kunstmatige intelligentie speelt een steeds grotere rol in het dagelijks leven en raakt h steeds meer mensen. Op verwachte en onverwachte manieren. Ongeveer tegelijk met het lanceren van het Sociaal AI Lab maakte Marguerite Bérard, de nieuwe CEO van ABN/Amro, bekend dat een vijfde van het personeel de laan uitvliegt. Het gaat om duizenden mensen. Zij is een keiharde tante. Bérard begon haar loopbaan in de entourage van president Sarkozy, die onlangs wegens corruptie werd veroordeeld. Ze is tevens een allochtone die de taal niet spreekt en dat terwijl zij opgroeide aan de Vlaams Franse grens waar haar vader prefect was.
Mevrouw Bérard song de lof van kunstmatige intelligentie en een chatbot die honderdduizend contacten met klanten wist af te handelen. Hier zien we een effect van AI als dit wordt ingezet van bovenaf. Des te belangrijker dat er instanties in het leven geroepen worden als het Sociaal AI Lab.
Ter illustratie van wat Kunstmatige Intelligentie vermag gaf ik ChatGtp de opdracht een kritische analyse te schrijven van het Rotterdamse initiatief. De chatbot nam onmiddellijk mijn gedaante aan en produceerde binnen een halve minuut resultaat. Ik stond erover verbaasd dat chatgtp in de conclusie schrijft: ¨Ik als historicus...¨. Dat geeft te denken
Ik stond erover verbaasd dat chatgtp in de conclusie schrijft: ¨Ik als historicus...¨. Dat geeft te denken
Daarna gaf ik dezelfde opdracht aan de Franse concurrent Le Chat Mistral. Een en ander gaf mij stof tot zélf nadenken met mijn eigen hersens. Gebeurt dat bij U ook? En vindt U dit een goed argument met het Sociaal AI Lab mee te doen? Vanwege de broodnodige zelfbescherming?
Chatgtp aan het woord:
Wat is het initiatief?
• Het Sociaal AI Lab is een project van de gemeente Rotterdam (in samenwerking met o.a. Hogeschool Rotterdam en Erasmus Universiteit Rotterdam). Het lab profileert zich als een “open werkplaats” waar bewoners, onderzoekers, ontwerpers en beleidsmakers samenwerken aan “eerlijke, begrijpelijke en toegankelijke technologie.” (persberichtenrotterdam.nl)
• Centraal staat een “Maatschappelijke Code voor Verantwoorde AI”: een set van zes kernwaarden waaraan iedere AI-toepassing moet voldoen: menselijke waardigheid; ondersteunend, niet vervangend; gelijkheid en inclusie; transparantie; privacy & gegevensbescherming; veiligheid & betrouwbaarheid; verantwoording (menselijke controle). (sociaalailab.nl)
• Via workshops, co-creatiesessies, participatie van wijkbewoners, educatie, en feedbackmechanismen wil het lab betrekken — wat volgens het initiatief moet bijdragen aan een “sociale, inclusieve en eerlijke” inzet van AI in de stad. (persberichtenrotterdam.nl)
Op papier: een sympathiek en vooruitstrevend initiatief. Maar idealen versus praktijk — daar wringt de schoen al gauw.
Kritische kanttekeningen
1. Vage kernwaarden zonder afdwingbaarheid
De kernwaarden van de Code — waardigheid, inclusie, transparantie, privacy, veiligheid, menselijk toezicht — zijn nobel en getuigen van moreel engagement. Maar: het blijft grotendeels bij woorden. Nergens zie ik concrete, juridisch of technisch afdwingbare maatregelen die borgen dat AI-projecten altijd aan die waarden voldoen.
• Wat betekent “ondersteunt mensen – vervangt ze niet” in concrete projecten? Kan dat niet gemakkelijk omzeild worden (bijv. door AI in te zetten voor kostenbesparing of personeelstekorten)?
• Transparantie is een begrip dat sterk afhankelijk is van interpretatie: “iedereen weet hoe en waarom AI wordt ingezet” — maar hoe wordt die toegankelijkheid gegarandeerd voor alle bewoners (taal, technologische kennis, communicatiemiddelen)?
• Privacy en gegevensbescherming klinken goed — maar AI vraagt vaak om grote datasets, soms met gevoelige persoonlijke informatie. Zonder strenge governance, toezicht en extern onafhankelijke audits is het boekenkast-plaatje waardeloos.
Kortom: zonder bindende contracten, toezichtmechanismen, externe verificatie of sancties bij misbruik blijft de Code vooral symbolisch, niet structureel.
2. Risico van normatieve hypocrisie: AI inzetten wél, problemen negeren
Het lab lijkt oprecht te willen werken aan inclusieve en rechtvaardige AI. Toch zie je vaak dat dergelijke initiatieven in de praktijk juist AI-toepassingen bevorderen (in bijvoorbeeld stedelijk beheer, administratie, welzijn, etc.) — terwijl de inherente problemen van AI (vooroordelen, bias, data-ongelijkheid, discriminatie, transparantie-tekort, macht-concentratie) worden genegeerd of weggepoetst met vaag “ethisch taalgebruik”.
Een kritische insteek moet wezen: AI is niet neutraal. Zelfs goedbedoelde AI kan bestaande structurele ongelijkheden versterken, wanneer data, ontwerp en besluitvorming niet kritisch onder de loep worden genomen.
Als het lab AI actief gaat introduceren in de “maatschappelijke dienstverlening” of “liveability”-projecten, moet je je afvragen: zorgen ze met concrete waarborgen dat kwetsbare groepen straks niet buitengesloten, gestereotypeerd of gediscrimineerd worden?
3. Democratische participatie ≠ macht of zeggenschap
Het idee van co-creatie: bewoners, onderzoekers, beleidsmakers samen. Dat klinkt democratisch, maar in de praktijk: wie bepaalt wat “mee” doen betekent? Vaak zullen deelnemers vooral adviserend zijn — zonder reële beslissingsmacht.
Er is een reële dreiging dat de agenda vooral wordt bepaald door de instituties (gemeente, universiteit, bestuur) — terwijl participatie fungeert als legitimatiemiddel, niet als echte democratische betrokkenheid.
4. Gebrek aan onafhankelijk toezicht of externe verantwoording
De Code is intern, opgezet door dezelfde actoren die de AI ontwikkelen. Er is weinig zicht op externe toezichthouders, onafhankelijke commissies of mechanismen voor klokkenluiders, data-bescherming audits, bias-analyses door derden.
Bij tech-initiatieven waar beslissingen over mensenrechten, privacy en sociale impact op het spel staan, is onafhankelijke toetsing essentieel. Anders is het risico groot dat idealen worden ingepakt als marketing.
5. Onderwaardering van fundamentele ethische vraagstukken
Sommige uitdagingen gaan niet over “hoe gebruiken we AI op een nette manier”, maar over de vraag: moeten we AI daar überhaupt gebruiken? Bijvoorbeeld: in sociaal werk, wijkbeheer, toekenning van middelen of voorzieningen.
Er is in de initatiefomschrijving weinig aandacht voor de fundamentele afweging: welke taken moeten — om ethische redenen — door mensen blijven gedaan worden, ongeacht technologische mogelijkheden? Het motto “vervang mensen niet” klinkt mooi, maar er is geen reflectie op de inherente spanning tussen efficiëntie, kostenbesparing en menselijke maat.
Waarom dit relevant is — en zorgelijk
Als historicus en burger in (of van) Rotterdam zie ik in het initiatief van het Sociaal AI Lab potentieel: het kan gemeenschappen bewust maken, technologische kennis democratiseren, en AI inzet verbinden aan sociale waarden. Maar idealistisch taalgebruik is niet genoeg. Zonder rigoureuze waarborgen, onafhankelijke controle en transparantie kunnen zulke projecten evengoed uitmonden in experimenten op kwetsbare groepen, instrumentalisering van bewoners, of — erger — in technologische vormen van uitsluiting en macht.
Zeker in een stad met socio-economische ongelijkheden, diverse achtergronden, taalbarrières en onrechtvaardige machtsverhoudingen: AI kan verergeren wat er al mis is, als ongelijkheid en uitsluiting niet actief bestreden worden — niet enkel met mooie woorden, maar met structurele, democratische en juridische waarborgen.
Conclusie
Het Sociaal AI Lab en haar Maatschappelijke Code voor Verantwoorde AI zijn goed bedoeld, en reflecteren een gewenst bewustzijn over de maatschappelijke gevaren van AI. Maar het blijft voorlopig bij idealisme, mits we kritisch blijven kijken naar de vorm, uitvoering en governance.
Zonder concrete, bindende mechanismen — onafhankelijke toetsing, externe verantwoording, echte zeggenschap voor bewoners — loopt het gevaar dat dit initiatief een ethisch schild wordt voor technologische implementaties die weinig veranderen aan de machtsverhoudingen waar AI vaak uit voortkomt.
Als dit initiatief wil slagen — en een echt voorbeeld wil zijn — is transparantie over processen, open data, externe audits, langetermijn-impactstudies en echte participatie noodzakelijk. Tot dan blijft het Sociaal AI Lab vooral een belofte — en de echte morele uitdaging ligt nog voor ons.¨
_____________________________________________________________________
Dit was Chatgtp, nu Le Chat Mistral
De Maatschappelijke Code voor Verantwoorde AI van Sociaal AI Lab – Een stap in de goede richting, maar voldoende?
Inleiding
Het Sociaal AI Lab in Rotterdam heeft met de Maatschappelijke Code voor Verantwoorde AI een ambitieus kader gepresenteerd om kunstmatige intelligentie (AI) op een eerlijke, veilige en mensgerichte manier in te zetten. Het initiatief is lovenswaardig: het stelt zes kernwaarden centraal, zoals menselijke waardigheid, gelijkheid, transparantie, privacy, veiligheid en verantwoording. Maar is deze code voldoende om de complexiteit van AI in de praktijk aan te pakken? En hoe wordt voorkomen dat het een papieren tijger blijft?
De zes kernwaarden: een solide basis, maar hoe concreet?
De code benadrukt dat AI mensen moet ondersteunen in plaats van vervangen, gelijkheid en inclusie moet bevorderen, transparant moet zijn, privacy moet beschermen, veilig en betrouwbaar moet werken, en dat verantwoording altijd bij mensen moet liggen. Deze waarden zijn essentieel, maar de vraag is hoe ze worden vertaald naar concrete acties en toezicht.
• Transparantie: Hoe wordt gegarandeerd dat AI-systemen daadwerkelijk transparant zijn voor burgers? Veel AI-modellen zijn ‘black boxes’ – zelfs voor experts. Zonder duidelijke uitleg en toegang tot de werking van algoritmes, blijft transparantie een loze belofte.
• Gelijkheid en inclusie: AI-systemen kunnen bestaande vooroordelen versterken als ze getraind worden op scheve datasets. Hoe zorgt het Sociaal AI Lab ervoor dat datasets representatief zijn en dat AI-systemen niet discrimineren?
• Verantwoording: Wie is precies verantwoordelijk als er iets misgaat? Als een AI-systeem een fout maakt, wie wordt dan aangesproken? De code spreekt over ‘menselijke verantwoording’, maar wie dat precies is en hoe die verantwoording wordt afgedwongen, blijft vaag.
Een levend document: flexibiliteit versus verwatering
De code is een ‘levend document’ dat wordt aangevuld naarmate er nieuwe inzichten ontstaan. Dat is positief, want AI ontwikkelt zich razendsnel. Maar het risico bestaat dat de code door deze flexibiliteit juist verwatert. Als er geen duidelijke, meetbare doelen en onafhankelijk toezicht zijn, kan de code een symbolisch karakter krijgen zonder echte impact.
Betrokkenheid van burgers: een mooi ideaal, maar hoe effectief?
Het Sociaal AI Lab wil Rotterdammers actief betrekken bij het gesprek over AI. Dat is een belangrijke stap, want technologie mag niet alleen door techneuten en beleidsmakers worden bepaald. Maar hoe wordt ervoor gezorgd dat deze betrokkenheid niet beperkt blijft tot een kleine groep geïnteresseerden? En hoe worden de input en zorgen van burgers daadwerkelijk verwerkt in het beleid en de ontwikkeling van AI-systemen?
Conclusie: een goede start, maar nog veel werk aan de winkel.
De Maatschappelijke Code voor Verantwoorde AI van het Sociaal AI Lab is een belangrijke eerste stap. Het initiatief toont bewustzijn van de ethische en maatschappelijke uitdagingen van AI. Maar om echt effectief te zijn, moet de code worden voorzien van concrete maatregelen, onafhankelijk toezicht en meetbare doelen. Daarnaast is het cruciaal dat burgers niet alleen worden gehoord, maar dat hun input ook daadwerkelijk leidt tot verandering.
De vraag is niet of Rotterdam de juiste waarden heeft geformuleerd, maar hoe deze waarden worden omgezet in praktische, controleerbare acties. Pas dan kan de code een echt verschil maken in het verantwoord inzetten van AI.¨