Lode Lauwaert (KU Leuven) over de schaduwzijde van AI: ‘Artificiële intelligentie is de nieuwe atoombom’

LODE LAUWAERT "Landen en AI-bedrijven pompen miljarden in de ontwikkeling van superintelligentie." © ID/Jonas Lampens
Jozef Vangelder
Jozef Vangelder redacteur Trends

Artificiële intelligentie biedt oneindig veel mogelijkheden, maar hebben we nagedacht over de risico’s? Want die risico’s zijn er wel degelijk, en ze kunnen catastrofale proporties aannemen, waarschuwt de Leuvense filosoof Lode Lauwaert in een nieuw boek. “Beseffen we wel goed wat een aantal bedrijven momenteel aan het maken zijn?”

Het was even slikken voor de medewerkers van Meta, het moederbedrijf van Facebook, Instagram en WhatsApp. Ze hadden Cicero ontwikkeld, een model op basis artificiële intelligentie (AI), bedoeld om het bordspel Diplomacy te spelen. Het spel vereist strategisch denken, complexe sociale interacties en onderhandelingsvaardigheden. Cicero bleek veel meer te kunnen dan de ontwikkelaars hadden verwacht. Het model was geprogrammeerd om basisstrategieën en eenvoudige communicatie te hanteren, maar slaagde erin verfijnde diplomatieke gesprekken te voeren, vertrouwen te winnen en coalities te smeden door menselijke spelers te beïnvloeden. De AI bleek zelfstandig geavanceerde technieken te ontwikkelen. Bij een onschuldig bordspel kunnen die onverwachte vermogens geen kwaad, maar wat als AI ingezet wordt in een context met een grote maatschappelijke draagwijdte, voor het beheer van processen in de banksector bijvoorbeeld?

Het zette Lode Lauwaert aan het denken. De Leuvense professor techniekfilosofie blijft positief over AI. Het bracht veel goeds en zal dat in de toekomst nog doen, schrijft Lauwaert in zijn nieuwe boek AI, wat niemand ons vertelt (ook ChatGPT niet). “Maar is dat alles? Moeten we ook niet voorbij de hype kijken? Beseffen we wel goed wat een aantal bedrijven momenteel aan het maken zijn?”

Cicero was geen alleenstaand geval. In zijn boek geeft Lauwaert voorbeelden van AI-systemen die konden liegen, bedriegen, manipuleren en misleiden. Een AI-systeem van het bedrijf Anthropic gaf antwoorden waarvan het vermoedde dat de ontwikkelaars ze wilden horen. Een AI-model van OpenAI kon met een list een captcha omzeilen, wat best ironisch is. Een captcha dient om robots de toegang tot een website te ontzeggen. Een pikant voorbeeld is het AI-model van Anthropic, dat toegang had tot (fictieve) mails van een (fictief) bedrijf. Toen het AI-model te horen kreeg dat het zou worden uitgeschakeld, stuurde het een dreigende boodschap naar een leidinggevende van het bedrijf: het zou een mail openbaar maken waaruit bleek dat de leidinggevende een buitenechtelijke affaire had. AI-modellen kunnen dus blijkbaar ook chanteren.

De toestand vraagt om onafhankelijke veiligheidsevaluaties van de AI-systemen, maar de bedrijven beschouwen hun algoritmes als bedrijfsgeheim, en schermen ze daarom af van pottenkijkers.

Lauwaert onderschat de intussen klassieke problemen met AI niet, zoals desinformatie, waarbij chabots ‘hallucineren’ of onjuiste informatie verspreiden, of discriminatie, waarbij AI-modellen bij het screenen van sollicitaties systematisch vrouwelijke kandidaten aan de kant schuiven. Maar AI brengt ook veel grootschaliger gevaren met zich. Lauwaert spreekt over catastrofale risico’s, een term die de Brits-Canadese wetenschapper en befaamde AI-pionier Geoffrey Hinton gebruikte in een BBC-interview.

Hinton is niet van de minste. Hij kreeg de prestigieuze Turing Award, die beschouwd wordt als de Nobelprijs voor Informatica, en de Nobelprijs voor Fysica. Hinton combineerde zijn aanstelling aan de universiteit van Toronto met een baan als onderzoeker bij Google. Toen hij daar in mei 2023 uit bezorgdheid over AI opstapte, was dat wereldnieuws. Hinton staat niet alleen met zijn zorgen. De wereldberoemde Britse natuurkundige Stephen Hawking waarschuwde al in 2014 in een BBC-interview dat AI “het einde van de menselijke soort zou kunnen betekenen”. In maart 2023 ondertekenden duizenden mensen een open brief die opriep de ontwikkeling en verspreiding van AI gedurende zes maanden te pauzeren. Tot de ondertekenaars behoorden AI-experts en enkele grote namen, onder wie de Israëlische historicus en auteur Yuval Noah Harari en Elon Musk, uitgerekend een van de oprichters van OpenAI.

Vacuüm

Lauwaert sluit zich aan bij de groep bezorgden en maakt een ferm statement in zijn boek: “AI is de nieuwe atoombom.” Het klinkt wat gechargeerd, maar een AI-model van het Amerikaanse bedrijf Collaborations Pharmaceuticals kon in amper zes uur 40.000 moleculen genereren die even giftig of giftiger waren dan het dodelijke zenuwgas VX. De kans op bioterreur neemt toe, schrijft Lauwaert. Waar vroeger een gespecialiseerde opleiding en jarenlange laboratoriumervaring vereist waren voor de ontwikkeling van biologische wapens, kunnen chatbots vandaag begrijpelijke instructies voorschotelen. De techbedrijven zijn zich daarvan bewust.

Als AI de nieuwe atoombom wordt, dan mag u dat ook letterlijk nemen. In zijn boek schetst Lauwaert een toekomstig scenario waarin landen de controle over hun nucleaire wapens hebben overgedragen aan AI-systemen. Menselijke besluitvorming was simpelweg te traag geworden in een wereld waar hypersonische raketten in minuten hun doelen bereiken. Hackers zouden het nucleaire AI-systeem kunnen voeden met nepinformatie, zodat het lijkt alsof een nucleaire aanval onderweg is. Een fundamenteler probleem is het gebrek aan goede data om nucleaire aanvalssystemen te trainen, simpelweg omdat er onvoldoende voorbeelden zijn van daadwerkelijke nucleaire aanvallen of dreigingen. Dat gebrek aan data zou algoritmes kunnen voortbrengen die niet adequaat reageren op nieuwe, onvoorziene scenario’s.

Dat laatste is in andere toepassingen een cruciaal probleem. Lauwaert voorspelt dat AI steeds meer ingezet zal worden om processen te beheren in de luchtvaart, de bankwereld, kernenergie en andere onderdelen van de economie. Maar AI-systemen worden getraind met overwegend alledaagse scenario’s, en dreigen daardoor onvoorspelbaar te reageren bij uitzonderlijke gebeurtenissen. Wat het nog erger maakt, is dat de ontwikkelaars van deze AI-systemen de interne werking ervan niet volledig begrijpen, en dus niet kunnen zeggen hoe die systemen kunnen falen. We zitten dus met gevaarlijke black boxes.

De toestand vraagt om onafhankelijke veiligheidsevaluaties van de AI-systemen, maar de bedrijven beschouwen hun algoritmes als bedrijfsgeheim, en schermen ze daarom af van pottenkijkers. Nieuwe vliegtuigontwerpen moeten rigoureuze veiligheidstesten doorstaan, nieuwe medicijnen doorlopen uitgebreide klinische testen, en kerncentrales zijn aan strenge certificeringsprocedures onderworpen, maar AI-systemen kunnen zomaar in kritieke processen worden ingeplant. Daar komt bovenop dat het mondiale AI-landschap grotendeels ongereguleerd blijft. De Europese AI Act, een set regels voor veilige en ethische AI, schiet ruim tekort als bescherming tegen de grootschalige gevaren. Dat alles creëert een gevaarlijk vacuüm, dat grote accidenten kan voortbrengen.

Machtsmisbruik

Daarmee eindigt het probleem niet. De klapper moet nog komen: artificial general intelligence (AGI), een krachtige vorm van AI die ingezet kan worden voor heel veel taken, gaande van het opmaken van een bouwplan, het schrijven van een juridisch dossier of het uitstippelen van een marketingstrategie. AGI bestaat nog niet, maar kan binnen twee decennia een feit zijn, schat Lauwaert. Voor de bedrijven zal AGI heel wat zegeningen brengen, zoals kostenbesparingen, een hogere productiviteit, een snellere groei en vlottere innovatie. AGI zal veel taken van mensen overnemen, maar niet tot massale werkloosheid leiden, meent Lauwaert. Werknemers zullen minder routinematige en meer creatieve taken krijgen. Bovendien leert de geschiedenis dat technologische innovatie vaak nieuwe banen of zelfs nieuwe sectoren creëert.

Het grote gevaar van AGI zit elders: het kan leiden tot machtsconcentratie. Alleen de techgiganten kunnen zich de enorme investeringen in datacenters en toptalent veroorloven om AGI te ontwikkelen. De eerste techgigant die AGI ontwikkelt, krijgt een voorsprong die zichzelf versterkt. Een AGI-bedrijf zal immers weinig werknemers tellen en 24 uur per dag draaien, zonder pauzes, vakanties of salarissen. Dankzij AGI zal het bedrijf ook veel sneller werken, met veel meer precisie. De combinatie van minimale kosten en een grotere productiviteit zal ongeziene winsten opleveren, die de techgigant kan herinvesteren in nog betere infrastructuur en nog meer onderzoek, met nog betere AGI en nog meer winst tot gevolg. Met dat geld kan de techgigant rivalen opkopen, toptalenten wegplukken bij de concurrentie, en exclusieve contracten sluiten met ontwerpers en fabrikanten van halfgeleiders, zodat concurrenten geen toegang krijgen tot essentiële hardware, of daarvoor veel hogere prijzen moeten betalen.

Superintelligentie zal het vermogen tot zelfreplicatie perfectioneren, zodat ze bij problemen niet meer uit te schakelen valt en de mens de controle verliest, wellicht voorgoed.

Machtsconcentratie kan leiden tot machtsmisbruik. Het AGI-bedrijf kan extreem hoge prijzen aanrekenen aan zijn klanten, of lobbyen bij de overheid om de regels naar zijn hand te zetten. Die regels zouden ook kunnen dienen als drempels voor nieuwkomers op de AGI-markt, bijvoorbeeld in de vorm van vereiste veiligheidsaudits van pakweg 100 miljoen dollar door dure labo’s, of opgelegde kapitaaldrempels van miljarden dollars voor bedrijven die AGI willen ontwikkelen. Het is volgens Lauwaert geen toeval dat Sam Altman, de CEO van OpenAI, tijdens een wereldtournee in 2023 pleitte voor strenge regels voor AI.

De kers op de taart voor machtswellustelingen is echter iets wat Lauwaert omschrijft als ‘waardenvergrendeling’. AGI kan geprogrammeerd worden om bij elke beslissing prioriteit te geven aan bepaalde waarden, bijvoorbeeld efficiëntie of duurzaamheid. Omdat AGI grote delen van de maatschappij zal aansturen – overheid, economie, onderwijs, de persoonlijke levenssfeer – zullen die waarden diep in de samenleving verankerd geraken en de dominante norm worden. De waardenvergrendeling kan echter ook van politieke aard zijn. Een AGI-bedrijf zou doelbewust linkse waarden als gelijkheid en collectivisme kunnen inbouwen in zijn systeem, en zo aansturen op minder vrijheid en privé-initiatief, of rechtse waarden als individuele verantwoordelijkheid, en zo aansturen op de afbouw van sociale vangnetten. Fantasie is dat niet, stelt Lauwaert. Techplatformen projecteren nu al persoonlijke waarden. Elon Musk, bekend om zijn anti-linkse en anti-woke standpunten, voerde bij X (het vroegere Twitter) radicale veranderingen door, om zijn ideaal van vrije meningsuiting te bevorderen.

Verbod

De kroon op het werk zou superintelligentie zijn, de overtreffende trap van AGI. Lauwaert vergelijkt het met “een universiteit met duizenden onderzoekers die allemaal vele keren intelligenter zijn dan Hawking”. Superintelligentie zal in staat zijn met ongeziene rekenkracht en tegen waanzinnige snelheden geneesmiddelen voor alle denkbare ziekten te ontwikkelen, nieuwe materialen te ontwerpen of zelfs nieuwe natuurkundige wetten te ontdekken. Ook dat is geen pure sciencefiction, volgens Lauwaert. AI kan worden ingezet om zichzelf te verbeteren, wat een positieve feedbackloop doet ontstaan en zo leidt tot een explosie van intelligentie. AI-systemen die zichzelf slimmer maken, bestaan al. Zo was Google via een zichzelf verbeterend AI-model in staat de trainingstijd van zijn Gemini-chatbot met 23 procent in te korten. AI-modellen kunnen bovendien zichzelf repliceren, zodat ze met duizenden kopieën tegelijk aan zelfverbetering kunnen werken, met als resultaat een nog grotere intelligentie-explosie, die de menselijke intellectuele vermogens ver achter zich laat.

Daar moeten grote ongelukken van komen, oordeelt Lauwaert. Als gewone AI al problemen oplevert, dan geldt dat des te meer voor superintelligentie. Die zal nog beter en verfijnder kunnen liegen, bedriegen, misleiden en chanteren, nog dodelijkere biowapens kunnen ontwikkelen, en tot nog meer machtsconcentratie leiden. De superslimme technologie zal het vermogen tot zelfreplicatie perfectioneren, zodat ze bij problemen niet meer uit te schakelen valt en de mens de controle verliest, wellicht voorgoed.

Lauwaert pleit voor een internationaal verbod op superintelligentie en zelfreplicatie, via een bindend internationaal verdrag, ondersteund door een onafhankelijk toezichtsorgaan. Door het verbod zullen we baanbrekende wetenschappelijke en medische ontdekkingen mislopen, maar de mogelijke schade door superintelligentie weegt veel zwaarder. De vraag is of de trein nog te stoppen valt. “Laat ik onderstrepen:”, schrijft Lauwaert, “landen en AI-bedrijven pompen momenteel miljarden in de ontwikkeling van superintelligentie.”

Bekijk hieronder Trends Talk met Lode Lauwaert

Fout opgemerkt of meer nieuws? Meld het hier

Partner Expertise