Trends sprak in San Francisco met Pieter Abbeel, wereldautoriteit in AI: ‘Het is al letterlijk overal’

PIETER ABBEEL “Het lastige is dat je van bepaalde uitvindingen vooraf niet kunt weten hoe ze gebruikt zullen worden.” © FOTOGRAFIE JANA ASENBRENNEROVA
Jef Poortmans
Jef Poortmans redacteur bij Trends

De Vlaming Pieter Abbeel behoort tot de wereldtop in onderzoek naar artificiële intelligentie en robotica. Hij stond onder meer mee aan de wieg van ChatGPT. Hij kent het vakgebied al twintig jaar, maar zelfs hij kijkt met grote ogen naar de recente ontwikkelingen. “De opwinding over generatieve AI is terecht.”

Weinigen zijn zo ondergedompeld in de wereld van artificiële intelligentie (AI) als Pieter Abbeel. Hij is professor aan de universiteit van Berkeley, richtte AI-bedrijven op, was een van de eerste teamleden van OpenAI, het bedrijf boven ChatGPT en ook als durfkapitaalinvesteerder staat hij mee in de voorlinie van de nieuwe AI-ontwikkelingen.

“Het bijzondere aan deze periode is dat AI letterlijk in alles en overal te vinden is. Kijk rondom je, alles wordt er op een of andere manier door geraakt. Zoals de vloer bijvoorbeeld”, vertelt hij vanop het terras van zijn huis in Orinda, een dorpje op een half uur van San Francisco. “Ik adviseer een bedrijf dat AI inzet om betonmixen te optimaliseren naar kwaliteit of uitstoot. Maar ook deze stoelen zouden weleens ontworpen kunnen zijn met beeldverwerkings-AI. Het is letterlijk overal. Dat had ik me niet kunnen voorstellen toen ik twintig jaar geleden begon. Toen gaf nog niemand om het idee of concept van AI.”

AI biedt grote kansen om nieuwe ontdekkingen te doen in de biologie of de gezondheidszorg

Hoe komt het dat AI nu alomtegenwoordig is?

PIETER ABBEEL. “Omdat nu, in tegenstelling tot vroeger, het onderliggende recept voor alle AI-toepassingen hetzelfde is. In 2012 was er een grote, bijna magische doorbraak. Geoff Hinton (vooraanstaand AI-onderzoeker en ex-Google, nvdr) en zijn studenten deden toen iets wat nog nooit was gedaan. Ze trainden een heel groot neuraal netwerk met een massa data, meer bepaald geannoteerde beelden. Bij foto’s van een kat schreven ze ‘kat’, bij een hond ‘hond’ enzovoort. En ze toonden aan dat, als ze dat netwerk voldoende data voedden, het zich die patronen eigen maakte, dat het katten en honden herkende. Dat veranderde alles.”

PIETER ABBEEL “Het AI-veld is nog altijd zeer breed en divers, maar de kern is overal dezelfde.”
PIETER ABBEEL “Het AI-veld is nog altijd zeer breed en divers, maar de kern is overal dezelfde.” © FOTOGRAFIE JANA ASENBRENNEROVA

In welk opzicht?

ABBEEL. “Daarvoor was AI-onderzoek heel versnipperd. Bij taalverwerking keken onderzoekers naar bepaalde ideeën en middelen, bij beeldverwerking naar heel andere en bij robotica naar nog andere. Geen enkele expert wist alles van AI. Maar die doorbraak zette een nieuwe beweging in gang. Deep learning werd de basis om alle neurale netwerken mee te trainen. Het AI-veld is nog altijd zeer breed en divers, maar de kern is overal dezelfde.”

Was u verrast door de AI-ontwikkelingen waar nu zoveel opwinding over is?

ABBEEL. “Niet door de ontwikkelingen op zich, wel door de opwinding. Voordien werden mensen niet zo enthousiast van AI. Daar had ik al vrede mee genomen (lacht). Met de komst van ChatGPT is dat helemaal gekeerd. Het gekke is dat dingen die mensen moeilijk of makkelijk vinden, en bepalen hoe sterk ze onder de indruk zijn, helemaal niet de dingen zijn die voor AI moeilijk of makkelijk zijn.”

Hoezo?

ABBEEL. “Dat heeft vooral te maken met de data die nodig zijn. Neem een chatbot of een zelfrijdende auto. Beide hebben enorm veel data nodig, maar het kost veel meer moeite de juiste data te verzamelen en te annoteren die nodig zijn voor het trainen van een auto dan voor een chatbot. Die laatste voed je gewoon alle data op het internet en die blijft leren. De huidige toepassingen van generatieve AI zijn veel tastbaarder voor mensen. Ze genereren iets, zoals een tekst of een beeld. Ze hebben een grotere impact, omdat mensen een tekst schrijven of een tekening maken moeilijker vinden dan autorijden. Terwijl zelfrijdende auto’s vooral de omgeving analyseren. Als ze al iets doen, zijn hun handelingen veel kleiner, zoals een stuurbeweging of de rem indrukken. Dat lijkt minder groots.”

Videobeelden gelden vandaag als bewijs in rechtszaken. Wat we daarop zien, geldt nu nog als echt gebeurd. Dat zal over tien jaar niet langer het geval zijn

Alle aandacht gaat naar generatieve AI. Zijn er delen of niches in het AI-domein die onterecht onder de radar blijven?

ABBEEL. “De opwinding is terecht. Op ChatGPT zullen heel veel toepassingen gebouwd worden. Daarnaast liggen er bijvoorbeeld ook grote kansen om nieuwe ontdekkingen te doen in de biologie of de gezondheidszorg. Mensen doen ontdekkingen, wanneer ze verbanden zien tussen stukjes en beetjes informatie die nog niemand met elkaar verbonden had. Daarvoor moet je wel al die informatie overschouwen. Dat kan AI op zeer grote schaal. Ook in de gezondheidszorg kan AI op ongeziene schaal medische informatie verwerken en zo artsen bijstaan.”

Hoe zit het met die ontwikkelingen en vooruitzichten in uw onderzoeksdomein, de robotica?

ABBEEL. “Robots kunnen veel betekenen in omgevingen waar veel fysieke arbeid nodig is. Ze hebben ook data nodig om te leren, maar die moeten uit de echte wereld komen. Robots kun je niet goed trainen in een laboratorium. Zij hebben fysieke interactie nodig in werkelijke omgevingen. Daarom richtten we in 2017 Covariant op. Ons doel was een algemeen denkvermogen te ontwikkelen voor robots die manuele handelingen doen.”

Hoe hebt u dat gedaan?

ABBEEL. “We zijn gestart met robots op proefprojecten te plaatsen, en ze daar te laten leren van hun fysieke omgeving. Mettertijd verzamelden ze steeds meer data, voerden ze beter hun taken uit en zetten we meer robots in. Daarmee hebben we Covariant Brain ontwikkeld. Dat is een algemene aansturing, die op een massa data uit de echte wereld is getraind, en die verschillende types en merken van robots kan aansturen.”

U bent professor en onderzoeker aan de universiteit, oprichter en ondernemer, en ook nog eens investeerder. Hoe combineert u al die rollen?

ABBEEL. “Die vraag krijg ik vaak. Daar zijn twee verklaringen voor. De voornaamste verklaring is dat ik in AI-onderzoek tot de wereldtop behoor. In die rol draag ik op al die verschillende fronten bij. Een tweede belangrijke verklaring is dat ik dat niet allemaal tegelijk heb gedaan. Toen ik mijn roboticalab aan Berkeley startte, deed ik nog veel meer en andere dingen dan nu. Vroeger programmeerde ik nog mee met de studenten, nu niet meer. Nu heb ik een goed ingewerkt team van senior en junior onderzoekers die mee de boel draaiende houden.”

Hoe verliep uw traject als ondernemer?

ABBEEL. “Ongeveer op dezelfde manier. Met drie van mijn studenten richtte ik Gradescope op (een programma dat verbeteringen van toetsen en examens automatiseerde, nvdr). Meer dan 1.000 universiteiten gebruiken het. Uiteindelijk werden we gekocht door een grotere speler. Toen een andere oud-student mee OpenAI oprichtte, werkte ik daar twee jaar aan mee, totdat we Covariant oprichtten. Al die ondernemerservaringen zorgen ervoor dat ik ook daar mijn tijd optimaal kan benutten. En als investeerder ging dat min of meer op dezelfde manier.”

PIETER ABBEEL “Het probleem is dat AI soms zaken nog veel te letterlijk neemt.”
PIETER ABBEEL “Het probleem is dat AI soms zaken nog veel te letterlijk neemt.” © FOTOGRAFIE JANA ASENBRENNEROVA

Hoe kwam het fonds dat u mee oprichtte tot stand?

ABBEEL. “Ik werd regelmatig gevraagd advies te geven over projecten. Ik doe dat erg graag, dus zocht ik naar een manier om er zelf ook voordeel uit te halen. Als investeerder schreef ik mijn eerste cheque in 2017 en twee jaar geleden richtten we AIX Ventures op, een durfkapitaalfonds dat AI-bedrijven financieel en inhoudelijk ondersteunt. Ons doel is uiteraard in hun toekomstige winsten en successen te delen. Ondertussen telt het fonds tien mensen, dus dat begint ook aardig te lopen.”

Is het opletten voor belangenconflicten met al die petjes? Wat als een AI-ontwikkeling commercieel heel winstgevend kan zijn, maar maatschappelijk nefast? Hoe gaat u daarmee om?

ABBEEL. “Daar moet iedereen in onze sector voor opletten. Het lastige is dat je van bepaalde uitvindingen vooraf niet kunt weten hoe ze gebruikt zullen worden. Het is heel moeilijk je in te beelden hoe mensen iets met een grenzeloos potentieel als AI zullen gebruiken en hoe je dat kunt controleren.”

Sommigen zien in AI de oplossing voor alle wereldproblemen, anderen het einde van de mensheid. Waar staat u op dat spectrum?

ABBEEL. “Je moet een onderscheid maken tussen de zaken waar men ongerust over is. Voor veel ervan zijn technologische oplossingen mogelijk. Als je bijvoorbeeld merkt dat AI een discriminerend patroon uit data herhaalt, dan moet je die data daarvoor corrigeren. Dat is gewoon kwestie van daar de moeite voor te doen. Ik maak me meer zorgen over wat mensen met slechte bedoelingen met AI kunnen aanvangen. De aanpak daarvan is niet zo eenduidig.”

Waar moeten we in dat opzicht waakzaam voor zijn?

ABBEEL. “Bijvoorbeeld voor desinformatiecampagnes die landen, bedrijven of organisaties willen destabiliseren. Mensen zullen beelden en tekst die niet echt zijn, toch geloven, omdat ze zo geloofwaardig zijn gemaakt. Videobeelden gelden vandaag als bewijs in rechtszaken. Wat we daarop zien, geldt nu nog als echt gebeurd. Dat zal over tien jaar niet langer het geval zijn. Dat probleem kun je bijvoorbeeld counteren met cryptografie. Daarmee kun je van elk beeld of elke tekst de bron onveranderbaar vastleggen, zodat het steeds gecheckt kan worden. Er zijn oplossingen mogelijk.”

Moeten we ook waakzaam zijn voor extreme uitwassen?

ABBEEL. “Geoff Hinton (een vooraanstaand AI-onderzoeker, nvdr) verliet Google, omdat hij vreest dat AI de wereld zal overnemen. AI blijft wenselijk omwille van alle voordelen, zoals nieuwe geneesmiddelen, verkeer zonder ongevallen en meer welvaart, maar als we die ontwikkelingen niet goed organiseren, kan de bijwerking zijn dat AI van steeds meer dingen de controle overneemt.”

Hoe zou dat kunnen ontsporen?

ABBEEL. “Het probleem is dat AI soms zaken nog veel te letterlijk neemt. Stel dat je de technologie de opdracht geeft je meer geld te bezorgen. Ze zou dat kunnen doen door anderen op te lichten of je eigen huis te verkopen; niet op de beste manieren dus. Mensen hebben al heel veel moeite om elkaars bedoelingen tussen de regels door in te schatten, laat staan dat AI dat kan. Dus ofwel zetten we nog meer in op AI die de menselijke eigenheden nog beter kan inschatten. Dat doen we bijvoorbeeld bij het Centre for Human Compatible AI aan de Berkeley-universiteit. Of we kiezen voor AI die enkel informeert, en niet beslist of handelt.”

AI blijft wenselijk omwille van alle voordelen, maar als we die ontwikkelingen niet goed organiseren, kan de bijwerking zijn dat AI van steeds meer dingen de controle overneemt

Dat is de keuze tussen adviserende of uitvoerende AI. Is het niet beter enkel voor de adviserende variant te gaan?

ABBEEL. “Sommigen denken in die richting, omdat dat veiliger is. In bepaalde domeinen, zoals de gezondheidszorg, zou alleen al adviserende artificiële intelligentie enorm veel betekenen. AI kan de artsen met alle informatie ondersteunen, maar de beslissingsmacht blijft bij die laatste. De vraag is of we ons niet heel veel ontzeggen door AI enkel informatief of adviserend in te zetten. In sommige contexten gaat dat ook niet, zoals bij zelfrijdende auto’s. Daar wil je niet dat de AI je adviseert wat te doen, daar wil je dat die de auto bestuurt. Een tussenoplossing kan zijn AI in afgebakende operationele omgevingen wel dingen te laten doen. Dan heb je drie niveaus: adviserend, operationeel en uitvoerend.”

Partner Content