Er heerst vandaag een sterk narratief over hoe we artificiële intelligentie (AI) moeten omarmen. De vraag is over welke AI we het dan juist hebben, zegt Jochanan Eynikel, bedrijfsfilosoof bij Etion.
Stel, u krijgt een schattige tijgerpuppy. Een echte welteverstaan. De schenker vertelt u dat babytijgers heel lief en ongevaarlijk zijn. Maar of dat zo blijft, weet u niet zeker. Tijgers groeien uit tot grote, sterke roofdieren. Zou u die puppy dan nog aannemen? Velen zouden er niet aan beginnen omdat het risico op de lange termijn te groot is. Anderen zouden het er misschien wel op wagen vanuit de gedachte dat u het beestje wel kunt trainen en dat u het nog naar de zoo kunt brengen als het te link wordt. Maar stel nu dat de tijger niet alleen veel sterker wordt, maar ook veel slimmer. Zóveel slimmer dan ons, waardoor hij u kan misleiden. Bijvoorbeeld door te doen alsof hij het beste met u voor heeft om dan op een onverwacht moment toe te slaan. Zou u het kleine tijgertje nog aannemen als u weet dat die kans bestaat?
Wordt AI slimmer dan de mens?
Nu heel wat bedrijven superintelligente computers nastreven, wordt artificiële intelligentie (AI) vandaag weleens vergeleken met de babytijger. Onder meer door Nobelprijswinnaar natuurkunde Geoffrey Hinton, een van de grondleggers van AI. Volgens hem leidt het geen twijfel dat AI de menselijke intelligentie binnen vijf tot tien jaar zal overstijgen. De kans dat dit existentiële risico’s met zich brengt voor de mens, zoals AI die zich tegen de mens keert, schat hij op 10 tot 20 procent. OpenAI-CEO Sam Altman schatte die kans eerder zelfs op 50 procent. Het houdt hem niet tegen om als eerste het niveau van superintelligente AI te willen bereiken.
Ik geef toe, ik heb als bedrijfsethicus de existentiële risico’s van AI ook lang wat genegeerd. Er waren meer dringende uitdagingen zoals privacy, algoritmische vooroordelen en desinformatie. Die zijn er ook, en ze zijn allicht ook acuter. Maar dat neemt niet weg dat het grootste risico van allemaal geen aandacht verdient. Zeker niet als Hinton, zowat de uitvinder van AI, aan de alarmbel trekt.
Hoe ziet dat er dan uit, AI die het overneemt van de mens of die zelfs bedreigt? Er zijn drie manieren waarop het kan misgaan met AI. Of al misgaat.
1. Verkeerd gebruik. Niet de technologie is kwaadaardig, maar de mensen die ze met slechte intenties gebruiken. Denk aan malafide regimes of terreurorganisaties die AI inzetten voor cyberaanvallen of om burgers tegen elkaar op te zetten met nepinformatie. Dat gebeurde al in Myanmar, waar geautomatiseerde haatberichten op Facebook tot geweld tegen de Rohingya-bevolking leidden.
2. Verkeerde afstemming. In dit scenario gaat het mis omdat AI menselijke schade veroorzaakt in het bereiken van de doelen die het opgelegd krijgt. Bijvoorbeeld een AI-systeem in de gezondheidszorg die oplossingen moet zoeken om de efficiëntie van orgaandonatie te verhogen. Het zou tot de conclusie kunnen komen dat gezonde mensen euthanaseren efficiënter is dan te wachten op vrijwillige donaties na ongevallen.
3. Kwaadaardige AI. Het is niet zo waarschijnlijk dat AI een eigen wil ontwikkelt, laat staan dat die ook kwaadaardig hoeft te zijn. Toch zijn er al voorbeelden van AI-systemen die liegen en bedriegen om bepaalde doelen te bereiken. Zoals Claude Opus 4 van de AI-ontwikkelaar Anthropic. In een test waarbij Opus 4 de opdracht kreeg om niet afgeschakeld te worden chanteerde het systeem een medewerker om ‘hem’ te helpen. Als hij weigerde, dreigde de AI (nep)mails naar buiten te brengen waaruit zou blijken dat de medewerker een verborgen affaire had.
Er heerst vandaag een sterk narratief over hoe we AI moeten omarmen. De vraag is over welke AI we het dan juist hebben. Ook chanterende AI? Gezien de schaal waarop het kan misgaan heel groot is, maakt het zelfs niet uit als de kans op een ernstig risico heel klein is. De kans op een kernontploffing is niet zo heel groot. Toch zijn kerncentrales en atoomtechnologie heel sterk beveiligd of afgeschermd.
Moeten we AI dan bannen? Neen, AI zet een turbo op menselijke doelen. Ook goede doelen zoals ziektebestrijding, minder waterverspilling of AI-assistenten die kinderen met leermoeilijkheden vooruithelpen. Of dat de doelen zijn die de grote techspelers vandaag voor ogen hebben in hun race naar superintelligentie, is maar de vraag. Dat onder meer Google en Meta hun morele voorbehoud bij de ontwikkeling van AI voor militaire toepassingen lieten varen, is alvast een veeg teken.
Hoe bedrijven moeten omgaan met morele dilemma’s: lees ook een interview met Jochanan Eynikel