‘Het ergste nepnieuws moet nog komen’: grote techbedrijven maken zich op voor de strijd tegen trollenlegers

Hacker, stockfoto | Bron: Getty

Nepstemmen van politici en gemanipuleerde beelden: in de aanloop naar de verkiezingen in Europa en de Verenigde Staten wapenen de grote techbedrijven zich tegen leugencampagnes uit China en Rusland. Maar wat is hun verdediging waard?

Midden januari, kort voor de voorverkiezingen in de Amerikaanse staat New Hampshire, ging de telefoon bij duizenden kiezers aan de oostkust van de Verenigde Staten. Het was Joe Biden, de Amerikaanse president. Hij raadde het af om naar de stembus te gaan. “Als je dinsdag gaat stemmen, steun je alleen de Republikeinen in hun poging om Donald Trump te herkiezen.”

Wat klonk als Biden, was eigenlijk een robot met artificiële intelligentie (AI). Het Witte Huis ontkende haastig dat de president had gebeld. Het gerecht begon een onderzoek. Ondertussen heeft de Federal Communications Commission stappen ondernomen om AI-gegenereerde robotoproepen in de VS te verbieden. Criminelen zouden de stemmen van beroemdheden imiteren om kiezers te verontrusten of te intimideren, zei voorzitter Jessica Rosenworcel. “Het klinkt als iets uit de verre toekomst. Maar het is er al.”

Rusland en China

In het superverkiezingsjaar 2024 groeit ook in Europa de bezorgdheid over manipulatie, valse informatie en gerichte desinformatie op internet. Westerse veiligheidsautoriteiten kijken vooral naar Rusland en China. Tegelijkertijd neemt de druk toe op de grote techbedrijven als Facebook, Instagram, TikTok en YouTube, waarvan de miljarden gebruikers uiterst belangrijke hulpmiddelen voor verkiezingscampagnes zijn geworden.

Een paar weken geleden onthulde een rapport van de European External Action Service (EEAS, de diplomatieke dienst van de EU) ongeveer 750 pogingen tot buitenlandse informatiemanipulatie en inmenging tussen december 2022 en november 2023. “De democratie staat op het spel”, zegt Věra Jourová, vicevoorzitter van de Europese Commissie en verantwoordelijk voor waarden en transparantie.

Het Amerikaanse ministerie van Buitenlandse Zaken heeft een coalitie gevormd met Europese partners om informatiemanipulatie overal ter wereld te bestrijden. Onlangs werd ontdekt dat een Russische inlichtingendienst een desinformatieoperatie in Afrika had opgezet, meldde speciaal vertegenwoordiger James Rubin in de marge van de Munich Security Conference (MSC). Er werd beweerd dat de ziekte dengue in West-Afrika werd veroorzaakt door experimenten in westerse gezondheidsfaciliteiten en dat Afrikanen werden gebruikt voor proeven met biologische wapens. De campagne was levensgevaarlijk, omdat onzekere mensen niet langer westerse artsen of ziekenhuizen durfden te bezoeken.

‘Terwijl techbedrijven in München beloven het beter te doen, lobbyen ze in Washington en Brussel voor minder moderatie en contentcontrole’

Digitale watermerken

Op de MSC ondertekenden twintig grote internetbedrijven het Munich Tech Accord. Ze beloven onder andere om door AI gegenereerde audio-, video- en afbeeldingsbestanden sneller te detecteren als ze het uiterlijk of de stem van kandidaten, verkiezingsmedewerkers en andere acteurs in een verkiezing nabootsen of veranderen. Om er vervolgens “gepast” mee om te gaan.

De techgiganten hebben ook andere ideeën besproken: echte content zou in de toekomst van een digitaal watermerk kunnen worden voorzien om het te onderscheiden van valse content. Het doel is om “industrie-overschrijdende veerkracht tegen frauduleuze AI-verkiezingscontent” te creëren. 2024 is een “cruciaal verkiezingsjaar” voor meer dan 4 miljard kiezers wereldwijd, zegt David Zapolsky, hoofd politieke lobby voor de internetgigant Amazon. Veiligheid en vertrouwen zijn cruciaal voor verkiezingen over de hele wereld.

Nick Clegg, de voormalige Britse vicepremier en nu hoofd Global Affairs bij het moederbedrijf van Facebook en Instagram, Meta, vindt de samenwerking van big tech op dit gebied baanbrekend. Dat alleen al laat zien hoe belangrijk de internetbedrijven de kwestie vinden en hoe serieus hun inspanningen zijn, zegt hij.

Maar het aantal sociale media dat de verkiezingsmanipulatoren moeten beïnvloeden is relatief klein. Aan de andere kant worden de platformbeheerders geconfronteerd met een bijna oneindig aantal pogingen tot desinformatie. Artificiële intelligentie maakt dat mogelijk.

Vrijheid met grenzen

Clegg en de andere bedrijven zijn nog altijd optimistisch dat ze de wapenwedloop tegen de trollenlegers (een trol is iemand die op het internet provocerende berichten plaatst en nepnieuws verspreidt) uit landen als Rusland, China en Iran kunnen winnen. Ze geloven dat ze een technische voorsprong hebben. Maar voor hoelang nog?

“Het ergste moet nog komen”, zegt Oren Etzioni, emeritus hoogleraar AI aan de Universiteit van Washington en oprichter van het non-profitplatform truemedia.org, dat nepnieuws aan de kaak stelt. In zijn ogen nemen de techbedrijven nauwelijks hun verantwoordelijkheid. Erger nog: terwijl ze in München beloven het beter te doen, lobbyen ze in Washington en Brussel voor minder moderatie en contentcontrole op hun platforms, met een verwijzing naar de vrijheid van meningsuiting.

“Maar die vrijheid heeft grenzen als verkiezingen gemanipuleerd worden. Vooral met AI gegenereerde video’s en beelden hebben de mogelijkheden voor desinformatie en nepnieuws enorm doen toenemen”, zegt Etzioni. Natuurlijk is het een goede zaak dat internetbedrijven iets willen doen aan nepcontent. Watermerken zijn echter bij lange na niet genoeg. Ze zijn veel te gemakkelijk te maken of te verwijderen. Het is “te weinig, te laat”.

Brussel lijkt er net zo over te denken. Het Europees Parlement heeft strengere regels aangenomen voor politieke reclame op sociale media. De wet is bedoeld om verkiezingen in de EU beter te beschermen tegen de invloed van andere landen. Er staat onder andere in dat onlinediensten verkiezingsreclame voortaan als zodanig moeten labelen. Ook moeten ze publiceren wie de reclamevideo of advertentie heeft gefinancierd. Daarnaast mogen gevoelige gebruikersgegevens, zoals religieuze gezindheid of seksuele geaardheid, niet meer gebruikt worden voor politieke reclame. De Digital Markets Act (DMA) verplicht de grote onlineplatforms en zoekmachines ook meer te doen tegen illegale inhoud en risico’s voor de openbare veiligheid.

Het internetbedrijf Alphabet, de eigenaar van de zoekmachine Google en het videoplatform YouTube, gaat in het offensief tegen de op handen zijnde regelgeving. De eerdere strategie om de strijd tegen nepnieuws te winnen door valse informatie te ontkrachten en te verwijderen, wordt als bijna hopeloos beschouwd. Het nieuwe plan van Google heet daarom pre-bunking, ofwel vroegtijdige detectie.

Vanaf dit voorjaar zal de interne Jigsaw-eenheid van Google, die bedoeld is om bedreigingen voor de samenleving te bestrijden, advertenties plaatsen in België, Frankrijk, Duitsland, Italië en Polen. Op platforms zoals TikTok en YouTube zal de technologie die is ontwikkeld aan de universiteiten van Cambridge en Bristol kijkers helpen manipulatieve inhoud te herkennen.

Maar het moeilijke deel moet nog komen: het vinden en bestrijden van leugens die men niet verwacht, maar net zo schadelijk zijn.

‘Na de Russische invasie in Oekraïne werd het verhaal van de pro-Russische trollen snel duidelijk. Het was gericht tegen de vluchtelingen uit Oekraïne: “Deze mensen nemen jullie huizen, banen en welvaart af”‘

Patronen

“Het is niet zo dat iemand een stuk valse informatie gelooft en dat je hem gewoon hoeft te vertellen ‘dat klopt niet. Hier is de waarheid’”, zegt Jigsaw-baas Yasmin Green. De hoop dat de persoon dan zijn perceptie zal corrigeren is een illusie. “Het is veel complexer dan dat. Vooral samenzweringstheoretici geloven dat zij de laatste echt correct geïnformeerde mensen in het universum zijn. We moeten veel eerder beginnen, met het systeem erachter”, zegt Green.

Jigsaw en de Britse onderzoekers hebben maandenlang naar het systeem van fake news gekeken en een aantal patronen gevonden. Tijdens het debat over verplichte vaccinatie tegen het coronavirus werd bijvoorbeeld al snel duidelijk wat de strategie van de antivaccinatiecampagnevoerders was. In de eerste stap schilderden ze de farmaceutische industrie af als corrupt en politiek beïnvloed; in de tweede stap wezen ze op het recht van mensen op lichamelijke integriteit. De campagne ging vergezeld van talloze voorbeelden van patiënten die zogezegd een slechte reactie op de vaccinatie hadden gehad.

Uiteindelijk werden miljoenen mensen niet gevaccineerd tegen het coronavirus. “Zulke strategieën zullen we weer zien in het volgende vaccinatiedebat. We kunnen onze systemen daarop afstemmen en mensen meteen laten zien dat informatie misleidend of onvolledig is”, hoopt Green.

Na de Russische invasie in Oekraïne werd het verhaal van de pro-Russische trollen snel duidelijk, meldt de Google-manager. Het was gericht tegen de vluchtelingen uit Oekraïne: ‘Deze mensen nemen jullie huizen, banen en welvaart af’. Ze konden daarop anticiperen en dat in video’s met factcheckers weerleggen. “Het resultaat was verbluffend”, zegt Green. De educatieve video’s op hun platform bereikten ongeveer de helft van de onlinegebruikers in Polen, Tsjechië en Slowakije.

Google hoopt op iets vergelijkbaars voor de Europese verkiezingen in juni. De campagnefilmpjes, vertaald in 22 talen, zijn bedoeld om “de mentale antilichamen van mensen tegen verkeerde informatie te activeren”, zegt Green. Zodat iedereen voorbereid is als ze zulke informatie tegenkomen. Het systeem is al getest in Duitsland. De resultaten zien er “heel goed” uit, zegt Green.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content