Steven Latré (imec) over ChatGPT: ‘Wie artificiële intelligentie niet omarmt, loopt het grootste risico’
De taalrobot ChatGPT geeft mensen vleugels tijdens hun werk. Amerikaanse onderzoekers komen uit op een tijdswinst van meer dan 30 procent voor het schrijven van analyses, delicate teksten, etc… Indrukwekkend, maar de mens lijkt weer een beetje meer vervangbaar. “Wie artificiële intelligentie niet omarmt, loopt het grootste risico”, zegt Steven Latré, verantwoordelijk voor artificiële intelligentie bij het onderzoekscentrum imec.
Begin maart publiceerden onderzoekers van de prestigieuze Amerikaanse universiteit MIT de resultaten van een experiment met de immens populaire taalrobot ChatGPT. In vergelijking met een controlegroep werkten medewerkers hun taken, vooral schrijfopdrachten, tot 35 procent sneller af. De deelnemers gebruikten de taalrobot vooral om snel een eerste versie te krijgen van een tekst of e-mail. De onderzoekspaper en de resultaten daarvan moeten wel nog door andere wetenschappers geëvalueerd worden.
Nog afwachten dus en het is ook niet zeker of we ooit precies de productiviteitsimpact van taalrobots zoals ChatGPT gaan kunnen berekenen. Voor professor Steven Latré staat het wel vast dat de trein voorgoed vertrokken is. Hij is verantwoordelijk voor de strategie rond artificiële intelligentie en het uitwerken van toepassingen bij imec, het grootste technologie onderzoekscentrum in Vlaanderen. “Men noemt ChatGPT en co nu het iPhone moment van artificiële intelligentie, een echte doorbraak zoals destijds met de eerste smartphones van Apple gebeurde”, zegt Latré. “De taalmodellen halen nu een voldoende hoog niveau om praktisch nut te hebben. Artificiële intelligentie is geen speelgoed meer, maar software die effectief saaie en gevaarlijke taken zou kunnen overnemen.
“In de jaren 80 legde Steve Jobs (oprichter en legendarische CEO van Apple, nvdr.) een computer uit als een ‘fiets voor de geest’. Als je vergelijkt hoe efficiënt diersoorten van punt A naar punt B bewegen, dan bengelt de mens ergens halverwege. Maar als je de efficiëntie van een mens op een fiets bekijkt, dan laat hij alle diersoorten achter zich. Voor Jobs illustreerde dat het vermogen van de mens om tools te maken die ons productiever maken. Steve Jobs noemde de computer toen ‘een fiets voor de geest’, maar vandaag zouden we net hetzelfde kunnen zeggen over artificiële intelligentie. . We krijgen er fantastisch gereedschap bij.”
Dat ook heel wat mensen kan vervangen.
STEVEN LATRÉ (IMEC). “Automatisering heeft altijd al jobs gekost. Maar in dit geval is er een belangrijke nuance. Artificiële intelligentie op zich zal mensen hun job niet inpikken de komende jaren. Mensen moeten er in de eerste plaats beducht voor zijn dat ze hun job verliezen aan mensen die geleerd hebben om goed met artificiële intelligentie te werken. Wie artificiële intelligentie niet omarmt, loopt het grootste risico.”
“Naast het risico zijn er ook nieuwe opportuniteiten. Door de opkomst van taalmodellen zoals ChatGPT komen er nu bijvoorbeeld vacatures voor ‘prompt engineers’. Dat zijn mensen die gespecialiseerd zijn in zo goed mogelijk antwoorden uit AI-software kunnen halen. Er komt dus een gans nieuwe jobmarkt.”
Enkele weken geleden ging een column van de New York Times viraal. De nieuwe versie van Bing, nu geholpen door hetzelfde AI-systeem waaruit ook ChatGPT ontstaan is, zou in een conversatie met een journalist menselijke gevoelens getoond hebben.
LATRÉ. “Taalmodellen zijn getraind met teksten die door mensen geschreven zijn en die gaan vaak over gevoelens. Het is dus logisch dat software op zulke vragen een zinnig antwoord kunnen genereren. Als mensen doorvragen kunnen ze computers heel filosofische antwoorden laten geven, maar dat betekent niet dat die software de vraag verstaat.”
“ChatGPT of andere taalmodellen hebben echt geen gevoelens. Ze bouwen teksten op door te voorspellen wat het best het volgende woord is. Het is en blijft autocomplete software op speed, het heeft geen bewustzijn. Omdat het die voorspellingen doet op basis van miljarden teksten, die bijna altijd door mensen geschreven zijn, lijken ChatGPT vaak wel intelligent. ChatGPT is ergens wel creatief. Bij een klassieke zoekmachine krijg je een lijst met links op een vraag als ‘Wat is de beste plaats om op vakantie te gaan’. Een taalmodel construeert een antwoord op basis van niet 1 of 2, maar 1000 bronnen. Het combineert op een slimme manier bestaande kennis en dat is een definitie van creativiteit.”
Er gaan stemmen op om een watermerk in de antwoorden van taalrobots te steken.
LATRÉ. “Dat is geen wondermiddel. Het zal altijd een kat en muisspel zijn. Er gaan altijd modellen zijn die getraind zullen worden om detectiesystemen te omzeilen.”
Op dit moment lijken de taalrobots het speelveld van de techgiganten, zullen andere en kleinere bedrijven ooit hun eigen gespecialiseerde robots kunnen maken?
LATRÉ. “De grote technologiebedrijven hebben de beste kaarten omdat zij over genoeg middelen en IT-infrastructuur beschikken. De taalmodellen hebben steeds meer data nodig. Zelfs als je bijvoorbeeld alles wat de Belgische kranten en tijdschriften ooit aan teksten geproduceerd hebben, dan is dat nog altijd niet voldoende. Je moet het systeem voeden met echt enorme hoeveelheden data. Dat zal ook nog even zo blijven. Op dit moment verbeteren de systemen snel, maar om een paar procent beter te worden hebben ze exponentieel meer data nodig.”
Er wordt wel verwacht dat ChatGPT en co zelf teksten gaan verzinnen om zichzelf te trainen.
LATRÉ. “Daar schuilt een groot gevaar in, omdat het de accuraatheid van de modellen bedreigt. Je kan nu al indrukwekkende antwoorden krijgen, maar vaak gaat de software totaal de mist in. Je kan de software bijvoorbeeld doen geloven dat 5+2 = 8. Gewoon omdat jij tegen de software zegt dat het zo is. Die grove fouten verdwijnen er nu vaak uit, omdat de software zich baseert op enorm veel voorbeelden. Maar wat gebeurt er als de software allemaal verzonnen stukken tekst begint te verwerken? En zich bijvoorbeeld moet baseren op voorbeelden die voor 90 procent fout gegenereerd zijn door machines?”
Lees ook:
Fout opgemerkt of meer nieuws? Meld het hier