‘De regelgeving over AI zal nooit af zijn’

KATLEEN GABRIELS EN JOCHANAN EYNIKEL “De mensen die het voor ons moeten opnemen, politici, voeren vaak zelf ongenuanceerde campagnes op de sociale media.” © FOTOGRAFIE FRANKY VERDICKT
Ilse De Witte
Ilse De Witte Redacteur bij Trends

Het Europees Parlement heeft de AI Act goedgekeurd. Moraalfilosoof Katleen Gabriels en bedrijfsfilosoof Jochanan Eynikel buigen zich over de Europese set regels voor kunstmatige intelligentie. “Het duurt nog te lang voor de wetgeving van kracht wordt, tot 2025 of zelfs 2026.”

De eerste horde is genomen. De Europarlementsleden zijn het eens geworden over de regels die bedrijven moeten volgen als ze een product of dienst ontwikkelen met kunstmatige intelligentie. De Europese Raad krijgt nog de kans om amendementen toe te voegen. Wat op tafel ligt voor de AI Act is nog geen Europese verordening, maar we zijn goed op weg. De grote lijnen lijken uitgestippeld. Trends ging bij twee denkers ten rade, om na te gaan of we met de AI Act voldoende beschermd zijn tegen doemscenario’s en tegelijk voldoende ruimte laten voor alle moois dat artificiële intelligentie (AI) ons kan brengen. Katleen Gabriels is moraalfilosoof gespecialiseerd in computerethiek en professor aan de Universiteit van Maastricht. De moraalfilosoof Jochanan Eynikel heeft zich in de materie verdiept voor de economische denktank Etion.

Bedrijven zullen zelf moeten zeggen tot welke risicocategorie hun systeem behoort. De slager keurt zijn eigen vlees’ JOCHANAN EYNIKEL

Europa wil strengere regels naargelang de risico’s. Hoe werkt dat?

JOCHANAN EYNIKEL. “Er zijn vier categorieën. De eerste zijn de onaanvaardbare risico’s, bijvoorbeeld gezichtsherkenning in publieke ruimtes in realtime. De tweede categorie zijn de hoge risico’s, zoals zelfrijdende wagens. Die zullen een certificaat nodig hebben om te bewijzen dat de AI veilig is. Voor de overige twee categorieën, de beperkte risico’s, zijn de regels minimaal, zoals transparantie over het feit dat de gebruiker met AI te maken heeft. Denk aan het algoritme dat muziek voorstelt op Spotify. Ik vind die trapsgewijze aanpak wel goed. Zo kan geëxperimenteerd worden met AI zonder dat je meteen met die enorme regelgeving zit. De indeling in risicocategorieën geeft een balans tussen alles vrij laten en alles dichtplamuren.”

KATLEEN GABRIELS. “De opdeling in risicocategorieën is heel duidelijk, maar je zal er de specifieke gebruiken van AI nooit volledig in kunnen vatten. De AI Act zal nooit af zijn. We hebben onlangs doorbraken gehad in generatieve AI, met ChatGPT, over een paar jaar worden we weer met iets anders geconfronteerd.

“Er zijn ook verschillen in visie tussen de Raad en het Parlement, bijvoorbeeld over biometrie. Het Europees Parlement vindt gezichtsherkenning een ontoelaatbaar risico, de Raad vindt dat het moet kunnen in geval van ontvoering of terrorisme. Maar hoelang mogen die beelden dan bijgehouden worden? In een politiek stelsel weet je nooit wie de volgende machthebbers zullen zijn.”

EYNIKEL. “AI is zogenoemde brontechnologie, die medische toepassingen heeft, maar evengoed voor autonome wapens kan worden gebruikt. De wetgeving moet een morele ondergrens vormen. Bedrijven kunnen ook meer doen. De technologiesector kan zelf ook verder gaan, naar een maatschappelijk verantwoorde digitalisering. Apple bijvoorbeeld speelt de privacy van gebruikers uit als een troef in de concurrentie met andere bedrijven, zoals Google. Al is Apple natuurlijk voor een groot deel een hardwarebedrijf.”

De indeling in risicogroepen is dus goed. Wat is minder goed?

GABRIELS. “Bedrijven zullen moeten laten weten met welke data de AI getraind wordt. Dat weten we bijvoorbeeld niet bij ChatGPT. Ik mis ook nog regels die de ontwikkelaars dwingen aan de gebruikers aan te geven hoe betrouwbaar de applicatie is. Voedingsproducenten moeten aangeven hoe gezond hun producten zijn. We zouden ontwikkelaars een score van betrouwbaarheid kunnen vragen. Een van de problemen van AI, vooral als het gaat over toepassingen in bijvoorbeeld hr, is dat toepassingen met veel te weinig data getraind worden. We riskeren dat onbetrouwbare technologie gebruikt wordt voor commerciële doeleinden.”

EYNIKEL. “Bedrijven zullen zelf moeten zeggen tot welke risicocategorie hun systeem behoort. De slager keurt zijn eigen vlees. Een ander puntje van kritiek: de lidstaten moeten zelf een autoriteit oprichten om te controleren of de regels gerespecteerd worden. Niet alle lidstaten nemen de Europese regels even nauw. Ik vraag mij af of er vrijhavens zullen ontstaan, waarvan bedrijven weten dat ze daar met meer wegkomen.”

GABRIELS. “Dat is ook al zo met de GDPR (het acroniem voor de Europese regels rond privacy, nvdr).”

Hoe zit het met straffen?

GABRIELS. “In de moraalpsychologie geldt: als je wilt dat straffen effect hebben, moet je bij slecht gedrag onmiddellijk ingrijpen. Mensen en bedrijven vinden hun reputatie erg belangrijk. Onlangs heeft Meta (het moederbedrijf boven Facebook, nvdr) een boete van 1,2 miljard euro gekregen in Europa, omdat het de privacy van zijn gebruikers onvoldoende gegarandeerd had. De Europese Commissie is een log apparaat. Er verloopt veel tijd tussen het slechte gedrag en de boete. Tegelijk hebben die boetes wel een effect. Big tech dreigt ermee bepaalde technologie weg te trekken uit Europa. Het zal geen makkelijk gevecht zijn, maar dat wil niet zeggen dat we het uit de weg moeten gaan.

JOCHANAN EYNIKEL en KATLEEN GABRIELS “De wetgeving moet een morele ondergrens vormen. Bedrijven kunnen ook meer doen.”
JOCHANAN EYNIKEL en KATLEEN GABRIELS “De wetgeving moet een morele ondergrens vormen. Bedrijven kunnen ook meer doen.” © FOTOGRAFIE FRANKY VERDICKT

“Hoe je bedrijven het best op het rechte pad houdt, is een moeilijke vraag. Hun advocaten gaan altijd op zoek naar hiaten. Als ik met computerwetenschappers praat, zeggen zij dat explainable AI een heel vage, bijna poëtische term is, die voor interpretatie vatbaar is.”

In welke context wordt die term gebruikt?

GABRIELS. “Als beslissingen van een AI-systeem veel invloed hebben op je leven, heb je als burger het recht inzage te krijgen in het beslissingsproces van het systeem. Hoe is het getraind? Explainable AI is een brede term, waar advocaten hun eigen invulling aan kunnen geven.”

Komt het regelgevend kader voor AI te laat?

GABRIELS. “Het is heel goed dat Europa het initiatief heeft genomen, al enkele jaren geleden. Europa is een koploper en dwingt mensen erover na te denken.”

EYNIKEL. “Het is positief dat de aanzet er is, al duurt het nog te lang, tot 2025 of zelfs 2026, vooraleer de wetgeving van kracht wordt. De wetgeving is niet te laat, als je het vergelijkt met andere werelddelen. In de Verenigde Staten bijvoorbeeld raken ze het helemaal niet eens over wat de regels zouden moeten zijn. Europa is vrij vooruitziend geweest.”

GABRIELS. “Ik ben vertrouwd met de voor de hand liggende kritiek van bedrijven dat die regels innovatie tegenhouden. Ze willen de trein niet missen. Ik heb daar nog geen overtuigende argumenten voor gezien of gehoord.”

AI is al op verschillende manieren in ons dagelijks leven en werken geslopen.

EYNIKEL. “Als je het vergelijkt met de opkomst van het internet en de sociale media, is Europa er deze keer snel bij, want toen is gewacht tot een aantal zaken volledig mis waren gelopen. Denk aan de persoonlijke data van miljoenen Facebook-gebruikers, die zonder hun toestemming bij Cambridge Analytica terechtkwamen. De Europese privacywetgeving kwam duidelijk te laat. De term AI bestaat al heel lang, sinds de jaren vijftig, maar machinelearning en generatieve AI, zoals we die nu kennen, zijn nog vrij recent. Toch is Europa al enkele jaren bezig een kader te scheppen, om AI in lijn te brengen met wat we maatschappelijk en moreel aanvaardbaar vinden.

Ik mis regels die de ontwikkelaars dwingen aan de gebruikers aan te geven hoe betrouwbaar de applicatie is’ KATLEEN GABRIELS

“Achter heel veel zaken die we dagelijks gebruiken, schuilt AI, maar daar zijn we niet zo bewust mee bezig. Met ChatGPT gaan mensen voor het eerst in groten getale heel bewust en op een talige manier in interactie met een systeem dat bijna-menselijke vaardigheden heeft. In een paar maanden waren er 100 miljoen gebruikers. Het is het snelst groeiende internetplatform in de geschiedenis. Dat toont wel aan dat er afspraken nodig zijn.”

Hoe kunnen we voorkomen dat een algoritme mensen verkeerde informatie voorschotelt?

GABRIELS. “Het is een hele uitdaging om te weten wat ‘echt’ is. Het wordt almaar makkelijker verkeerde informatie op het juiste moment de wereld in te sturen met deep fake en allerlei vormen van fotobewerking. Ik wil de mensen niet bang maken, maar AI biedt ook veel mogelijkheden voor criminaliteit. We krijgen nu al te maken met gepersonaliseerde WhatsApp-berichten van vrienden of familie, die beweren dat ze hun gsm kwijt zijn. Je kunt al gepersonaliseerde audioberichten sturen, met mijn stem die je van YouTube hebt gehaald, om geld te vragen. Ons kritisch vermogen wordt enorm uitgedaagd.

“De mensen die het voor ons moeten opnemen, politici, voeren vaak zelf ongenuanceerde campagnes op de sociale media. Waarom is het geen verkiezingsthema? Politieke partijen geven veel geld uit aan sociale media. De verkiezingsstrijd wordt nu al gevoerd op TikTok. Politici nemen zelf deel aan de retoriek en vervallen in slogans. Dat vind ik heel verontrustend.”

EYNIKEL. “Een onzichtbaar algoritme stuurt constante prikkels. De beïnvloeding is daardoor sterker dan vroeger. TikTok en X (voorheen Twitter, nvdr) bijvoorbeeld zijn gebouwd voor heel korte boodschappen. Op X kun je nu ook wel langere berichten sturen, maar het is een probleem als het medium de vorm van de boodschap begint te bepalen. Voor commerciële bedrijven is dat niet zo’n groot probleem, want zij werken sinds jaar en dag met slogans. Voor politici is dat wel een probleem. Zij worden gedwongen korte, ongenuanceerde, sloganeske boodschappen te verspreiden, omdat het tijdsframe waarin ze in beeld zijn zo kort is. Dat is op zijn minst iets om aandacht voor te hebben. Je moet op bepaalde kanalen aanwezig zijn.

“Dat is allemaal heel moeilijk aan te pakken met regelgeving. We moeten eerst de grote spelers kunnen overtuigen, zodat ze hun eigen invloed zien en niet langer zeggen dat hun platform neutraal is. Bij Meta bijvoorbeeld heb je daar toch al een verandering van de zienswijze gezien.

“Neem onze Franstalige openbare omroep RTBF. Die heeft, net als Netflix, een platform waarbij gebruikers bepaalde content krijgen aangeboden, waarvan aanbevelingsalgoritmes denken dat je ze leuk zal vinden. Op een bepaald moment heeft RTBF beslist een deel van de content aan te bieden op basis van die persoonlijke voorkeuren, maar daarnaast ook content te leveren waarvan de publieke omroep vindt dat het belangrijk is dat het brede publiek het weet. Het algoritme wordt zo bijgestuurd vanuit de waarden en de opdracht van de omroep.”

GABRIELS. “De journalistiek heeft ook bijgedragen aan de angst voor AI. Wat ik allemaal heb zien passeren: ‘AI bedreigt ons’, ‘het einde van de wereld’. Alsof we alleen maar blij of bang kunnen zijn en dat we geen andere emoties kunnen hebben. De media zouden meer moeten werken aan het kritische denkvermogen van de kijkers of de lezers.”

Het beste en het slechtste denkbare AI-systeem

HET BESTE VOLGENS KATLEEN GABRIELS

“Het is te idealistisch, maar ik zou heel graag een soort socratische gesprekspartner zien. In hoeverre kan AI ons helpen met de vorming van een kritisch oordeel? Stel dat je een gesprek kunt voeren met AI, waarin het systeem onze denkfouten of drogargumenten blootlegt en ons uitdaagt de zaken op een andere manier te zien, met meer nuances. Een systeem dat jouw denken aanscherpt en in tegenstelling tot mensen 24 uur per dag en zeven dagen per week beschikbaar is.”

HET SLECHTSTE VOLGENS JOCHANAN EYNIKEL

“Wat ik het meest wil vermijden, is een digitale technocratie, waar mensen de morele beslissingen uit handen geven. Mensen die hun vertrouwen in politici kwijt zijn, hoor ik soms opperen een computersysteem de keuzes te laten maken. Laat het systeem beslissen op basis van alle data en oplossingen die voorhanden zijn. Maar die systemen zullen altijd ontworpen zijn vanuit bepaalde ideologische voorkeuren, menselijke keuzes, bepaalde waarden en visies. De grote denkfout is dat zo’n systeem neutraal zou kunnen zijn. Dat politici er niet uit raken welke klimaatoplossingen bijvoorbeeld zouden moeten primeren, toont net aan dat het geen neutrale beslissing is.”

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content