Lode Lauwaert (KU Leuven): ‘Dankzij AI zullen techbazen hun politieke en ethische waarden in het systeem kunnen pompen’

© ID
Jozef Vangelder
Jozef Vangelder redacteur Trends

Artificiële intelligentie (AI) dreigt zo krachtig te worden dat de techbazen hun ideeën en overtuigingen in de maatschappij zullen kunnen verankeren, waarschuwt de Leuvense filosoof Lode Lauwaert dit weekend in Trends Talk. Hij schreef een boek over de risico’s van artificiële intelligentie. Zijn conclusie is niet mals: “Artificiële intelligentie is de nieuwe atoombom.”

Vandaag kennen we artificiële intelligentie (AI). Maar er is een veel krachtiger AI-systeem op komst: algemene artificiële intelligentie, beter gekend onder zijn Engelse naam: Artificial General Intelligence (AGI). “AGI-systemen zullen een groot aantal economisch relevante activiteiten kunnen overnemen van mensen, gaande van uurroosters opmaken en advertenties ontwerpen tot banken beheren en onderzoek verrichten”, zegt Lode Lauwaert, professor techniekfilosofie aan de KU Leuven dit weekend in Trends Talk.

Tot groot jobverlies zal AGI niet leiden, volgens Lauwaert. Werknemers zullen zich moeten omscholen, of zullen andere opdrachten krijgen van hun werkgevers. Bovendien leert de geschiedenis dat nieuwe technologieën veel nieuwe jobs kunnen creëren. Lauwaert: “Denk bijvoorbeeld aan AI. Dat heeft geleid tot een boom van ingenieurs en computerwetenschappers die werken aan AI-systemen, van specialisten die datacenters bouwen en onderhouden, en zo meer. Ik denk dat hetzelfde zal gebeuren met AGI.”

Maatschappelijke beïnvloeding

Maar wat als iemand als Elon Musk achter de knoppen komt te zitten van een krachtig AGI-systeem? Dan kan er ‘waardenvergrendeling’ optreden, waarschuwt Lauwaert in zijn nieuw boek, getiteld Wat niemand ons vertelt, ook ChatGPT niet. “Met waardenvergrendeling bedoel ik dat bepaalde waarden – doorgaans morele of politieke waarden – voor lange tijd ingekapseld zullen geraken in de samenleving. In het Westen hebben we uiteraard onze liberale democratie, waarin waarden als autonomie en vrijheid sterk geworteld zitten. Dat is ook een soort vergrendeling. Maar in de toekomst zouden techbedrijven of techbazen dankzij AGI hun persoonlijke politieke of ethische waarden in het systeem kunnen pompen, waardoor die waarden zich nationaal of misschien zelfs internationaal verspreiden.”

Dat soort maatschappelijke beïnvloeding door techbazen bestaat vandaag al, schrijft Lauwaert in zijn boek. Wanneer Elon Musk X (het vroegere Twitter) overneemt en radicale veranderingen doorvoert om zijn ideaal van vrije meningsuiting te bevorderen, zelfs als dat leidt tot de verspreiding van onjuistheden, is dat een uiting van een intentie. Die intentie is cruciaal, omdat het waardenvergrendeling niet tot een onbedoeld neveneffect maakt, maar tot een doel op zich.

Lees ook: De AI-hype doorgelicht: wat bedrijven niet durven toegeven

Voor datzelfde doel zullen ook AGI-systemen ingezet kunnen worden. Immers, als een techbaas een AGI-systeem ontwikkelt, zullen bedrijven dat kopen omwille van de grote productiviteitswinsten die het oplevert. Wie het systeem niet koopt, dreigt achterop te geraken in de concurrentiestrijd. Op die manier zullen de morele of politieke waarden van de techbaas zich verspreiden. “Denk aan de politieke overtuiging van Elon Musk”, zegt Lauwaert. “Hij is zeer libertair, anti-woke en anti-links. Hij zou die waarden doelbewust in zijn AGI-systeem kunnen laten pompen door zijn ingenieurs.”

Mensen met afwijkende meningen zouden dan het slachtoffer kunnen worden, bijvoorbeeld bij sollicitaties, aldus Lauwaert. “Als bedrijven die technologie gebruiken, dan zou het kunnen dat mensen met bijvoorbeeld een linkse of pro-Palestijnse overtuiging gediscrimineerd worden door het bedrijf, bewust of onbewust.”

Giftig

Waardenvergrendeling is niet enige gevaar waarvoor Lauwaert waarschuwt in zijn boek. AI verhoogt ook het risico op nucleaire oorlogen of bioterreur. Een AI-model van het Amerikaanse bedrijf Collaborations Pharmaceuticals kon in amper zes uur tijd 40.000 moleculen genereren die even giftig of zelfs giftiger waren dan het zeer dodelijke zenuwgas VX.

AI kan ook rampen veroorzaken zonder dat er slechte bedoelingen aan te pas komen. AI zal meer en meer gebruikt worden om processen te automatiseren in bijvoorbeeld de bankwereld, de luchtvaart en de kerncentrales. Maar de ontwikkelaars van die AI-systemen begrijpen de interne werking ervan niet goed, wat het onmogelijk maakt om te voorspellen hoe die systemen zullen reageren op onvoorziene omstandigheden, aldus Lauwaert in zijn boek. AI-systemen worden zo gevaarlijke black boxes. “AI is de nieuwe atoombom”, schrijft Lauwaert. “Ziehier de kern van mijn verhaal.”

De volledige Trends Talk met Lode Lauwaert is te bekijken vanaf vrijdagavond 20 uur hier op ons nieuwe videoplatform trendsz.be of op Trends Z.

Partner Expertise