McKinsey ruikt business . In recente publicaties schat het internationale consultancybureau de markt voor artificiële intelligentie voor banken op 250 miljard dollar. McKinsey Global Institute Research spreekt zelfs over 13.000 miljard aan toegevoegde globale economische output vanaf 2030. Het opbod is al flink begonnen. Maar wees niet naïef: zulke schattingen zijn in de allereerste plaats nattevingerwerk en heel afhankelijk van willekeurige grenzen. McKinsey wil er met die pseudonauwkeurige cijfers vooral erop wijzen dat bedrijven niet mogen vergeten mee te surfen op de golven van die niet te stoppen (r)evolutie. McKinsey staat klaar om hen daarbij te adviseren en het zal zijn graantje wel meepikken. Vooral natuurlijk omdat de ervaring met artificiële intelligentie in de praktijk zeer beperkt is. De intuïtie van CEO's voor dat extreem krachtige instrument heeft niet kunnen rijpen, en dus heb je op die terra incognita deskundige analytische hulp nodig.

Juist door het gebrek aan ervaring zijn onverwachte neveneffecten te verwachten. Als je merkt wat allemaal kan mislopen, zou je er het liefst niet eens aan beginnen. Het kan fout lopen bij het model. Net zoals beleggingsadviseurs die alleen maar een stierenmarkt hebben gekend, niet goed kunnen adviseren als er een crash dreigt, kunnen die modellen met de verkeerde gegevens zijn gevoed. Een ander probleem is de hardware. Alles kan stuk gaan, ook de remmen van uw auto. De kans is klein, maar hoe meer acties wij toevertrouwen aan robots, hoe frequenter het goed fout kan lopen. Als de slimme roetsjbaan plots met je kinderen op zwier gaat, zul je ook wel tweemaal nadenken voordat je ze ooit nog laat instappen. Een veel groter probleem dan robots zijn mensen: die zullen erop aandringen robots ook in te zetten voor zaken waar ze nog niet klaar voor zijn.

Er zal een nieuw probleem ontstaan als mensen robots proberen bij te sturen.

Een volkomen nieuw probleem zal ontstaan als mensen - in paniek? - de robots proberen bij te sturen. We hebben een voorsmaakje gekregen met de 737MAX en zijn eenvoudige softwareprobleem. Hebben de piloten de zaak alleen nog erger gemaakt? Veronderstel dat je beleggingsalgoritme een heel complexe strategie volgt. De handelaars ziet plots volkomen onlogische beslissingen en grijpen in, waardoor ze net datgene veroorzaken wat de computer wilde vermijden. Eén voorspelling wil ik met grote zekerheid maken: de pers zal massaal rapporteren over het omgekeerde: wanneer een mens volkomen terecht de robot stopt. Maar het aantal artikels over het knoeigedrag van mensen bij keurig werkende systemen zal ons vooral via abstracte studies bereiken.

Eén gegeven stemt mij wel optimistisch. Het aantal vliegtuigongevallen blijft relatief gezien spectaculair dalen. Waarom is vliegen zo veilig? Omdat na elke ramp geld noch moeite wordt gespaard om de oorzaak van de ramp te achterhalen. Als mensen fatale auto-ongevallen veroorzaken, stoppen we heel snel met de analyse: dronkenschap achter het stuur. Niemand zal systematisch onderzoeken waarom die man dronk, uit respect voor de overleden chauffeur en zijn familie. Wie heeft geprobeerd die man op te voeden om nooit te rijden én te drinken? Waarom zijn die pogingen mislukt? Heeft niemand die man tegengehouden om in zijn auto te stappen? Wat is de rol van zijn huisarts? Niet denkbaar, zo'n fundamentele analyse als een medemens in een moordenaar verandert door dronken achter het stuur plaats te nemen. Maar als een zelfrijdende auto een ernstig ongeluk veroorzaakt, en dat zal steeds meer gebeuren, wordt letterlijk elke steen omgedraaid, ook de delicate, en zal een soortgelijk ongeval snel significant minder kans krijgen.

De evaluatie van medische fouten en verkeersongevallen is verre van ideaal. Laat de slimme robots maar komen. Niet omdat ik naïef geloof in hun onfeilbaarheid, maar wel in de leerprocessen die ze uitlokken als ze falen. Was dat bij ons mensen, politici op kop, ook maar zo.