Datagedreven besluitvorming is een snel groeiende trend die wordt gevoed door twee samenvallende krachten: de exponentiële groei van data en nieuwe technologie. 90 procent van alle data in de wereld is de afgelopen twee jaar gecreëerd en elke dag komt er 2,5 miljard gigabyte bij. Maar gegevens op zichzelf zijn waardeloos. We hebben technologie nodig om data te verzamelen, te verwerken en te analyseren. Artificiële intelligentie en machinelearning (algoritmes om software te trainen) zijn van onschatbare waarde om zin te geven aan enorme hoeveelheden ongestructureerde gegevens.

Ook bij een datagedreven besluitvorming zijn er valkuilen.

Als govtechbedrijf ¬ kort voor government technology ¬ helpen wij overheden beslissingen te nemen op basis van de inbreng van burgers. Een datagedreven werkwijze is voor grote openbare systemen essentieel om diensten te verlenen die aan de behoeften van individuen voldoen. Zoals elke nieuwe trend heeft een datagedreven besluitvorming ook valkuilen.

Steeds meer overheden en organisaties stellen een deel van de datasets waar ze gebruik van maken open. Sommigen openen zelfs de broncode van tools en algoritmes die ze op die datasets toepassen. Transparantie 2.0 gaat nog een stap verder. Open data en open source kunnen voldoende zijn voor datawetenschappers en ingenieurs om te begrijpen wat er gebeurt, maar dat is zeker niet zo voor de meerderheid van ons. Transparantie 2.0 vereist een actieve vertaalstap. Burgers en stakeholders krijgen daarmee de instrumenten om de gegevens te verkennen en te begrijpen. Algoritmes en codes worden vertaald in teksten en beelden die begrijpelijk uitleggen wat onder de motorkap gebeurt. Hoe worden de gegevens verwerkt? Welke aannames worden er gedaan? Welk deel van de input leidde tot welk deel van de output?

De dataset kan onvolledig zijn of de algoritmen kunnen gebaseerd zijn op foutieve assumpties. Daarom blijven menselijke interpretatie en kritisch denken onmisbaar.

Hoewel gegevens koning kunnen zijn, is het goed een aantal checks-and-balances te hebben. Een op data gebaseerde conclusie kan erg overtuigend zijn, zeker als die visueel is. Als iets wordt uitgedrukt in cijfers of grafieken, geeft het gemakkelijk de indruk dat het geen verdere uitleg nodig heeft. Opgepast! De dataset kan onvolledig zijn of de algoritmen kunnen gebaseerd zijn op foutieve assumpties. Daarom blijven menselijke interpretatie en kritisch denken onmisbaar. Het begint met het begrijpen van de sterke en de zwakke punten van datatechnologie enerzijds en menselijke expertise anderzijds. Datatechnologie is uitstekend in het vinden van patronen en logische verbanden. Zo kunnen cognitieve fouten worden verminderd, zoals de recency bias, waardoor mensen de voorkeur geven aan recente gebeurtenissen over historische. Mensen zijn meesters in het aanbrengen van nuance en context. Terwijl we vroeger het monopolie hadden op het beantwoorden van de waarom-vraag, gaat datatechnologie nu ook snel voorbij de vroegere grenzen van de wat- en hoe-vragen.

De kwaliteit van uw data-invoer heeft veel invloed op de output. Een groot deel daarvan wordt bepaald wanneer je begint met het verzamelen van de gegevens. Zorg ervoor dat de verzamelde gegevens zo zijn gestructureerd dat ze weerspiegelen wat je met die gegevens wilt doen of wat je ervan wilt leren. Wil je bijvoorbeeld twee datasets combineren? Zorg er dan voor dat er een structureel verband is tussen beide, bijvoorbeeld de datum en de tijd van de meting. Die regel geldt des te meer wanneer je met ongestructureerde gegevens werkt, zoals tekst, afbeeldingen, video of audio. Bij CitizenLab begint datagedreven besluitvorming op basis van kleine, betrouwbare datasets en menselijke processen. Laat je niet verleiden door mooie applicaties en gigantische datasets, maar start met een duidelijke onderzoeksvraag en een goed onderzocht verwerkingsproces.

Datagedreven besluitvorming is een snel groeiende trend die wordt gevoed door twee samenvallende krachten: de exponentiële groei van data en nieuwe technologie. 90 procent van alle data in de wereld is de afgelopen twee jaar gecreëerd en elke dag komt er 2,5 miljard gigabyte bij. Maar gegevens op zichzelf zijn waardeloos. We hebben technologie nodig om data te verzamelen, te verwerken en te analyseren. Artificiële intelligentie en machinelearning (algoritmes om software te trainen) zijn van onschatbare waarde om zin te geven aan enorme hoeveelheden ongestructureerde gegevens. Als govtechbedrijf ¬ kort voor government technology ¬ helpen wij overheden beslissingen te nemen op basis van de inbreng van burgers. Een datagedreven werkwijze is voor grote openbare systemen essentieel om diensten te verlenen die aan de behoeften van individuen voldoen. Zoals elke nieuwe trend heeft een datagedreven besluitvorming ook valkuilen. Steeds meer overheden en organisaties stellen een deel van de datasets waar ze gebruik van maken open. Sommigen openen zelfs de broncode van tools en algoritmes die ze op die datasets toepassen. Transparantie 2.0 gaat nog een stap verder. Open data en open source kunnen voldoende zijn voor datawetenschappers en ingenieurs om te begrijpen wat er gebeurt, maar dat is zeker niet zo voor de meerderheid van ons. Transparantie 2.0 vereist een actieve vertaalstap. Burgers en stakeholders krijgen daarmee de instrumenten om de gegevens te verkennen en te begrijpen. Algoritmes en codes worden vertaald in teksten en beelden die begrijpelijk uitleggen wat onder de motorkap gebeurt. Hoe worden de gegevens verwerkt? Welke aannames worden er gedaan? Welk deel van de input leidde tot welk deel van de output?Hoewel gegevens koning kunnen zijn, is het goed een aantal checks-and-balances te hebben. Een op data gebaseerde conclusie kan erg overtuigend zijn, zeker als die visueel is. Als iets wordt uitgedrukt in cijfers of grafieken, geeft het gemakkelijk de indruk dat het geen verdere uitleg nodig heeft. Opgepast! De dataset kan onvolledig zijn of de algoritmen kunnen gebaseerd zijn op foutieve assumpties. Daarom blijven menselijke interpretatie en kritisch denken onmisbaar. Het begint met het begrijpen van de sterke en de zwakke punten van datatechnologie enerzijds en menselijke expertise anderzijds. Datatechnologie is uitstekend in het vinden van patronen en logische verbanden. Zo kunnen cognitieve fouten worden verminderd, zoals de recency bias, waardoor mensen de voorkeur geven aan recente gebeurtenissen over historische. Mensen zijn meesters in het aanbrengen van nuance en context. Terwijl we vroeger het monopolie hadden op het beantwoorden van de waarom-vraag, gaat datatechnologie nu ook snel voorbij de vroegere grenzen van de wat- en hoe-vragen. De kwaliteit van uw data-invoer heeft veel invloed op de output. Een groot deel daarvan wordt bepaald wanneer je begint met het verzamelen van de gegevens. Zorg ervoor dat de verzamelde gegevens zo zijn gestructureerd dat ze weerspiegelen wat je met die gegevens wilt doen of wat je ervan wilt leren. Wil je bijvoorbeeld twee datasets combineren? Zorg er dan voor dat er een structureel verband is tussen beide, bijvoorbeeld de datum en de tijd van de meting. Die regel geldt des te meer wanneer je met ongestructureerde gegevens werkt, zoals tekst, afbeeldingen, video of audio. Bij CitizenLab begint datagedreven besluitvorming op basis van kleine, betrouwbare datasets en menselijke processen. Laat je niet verleiden door mooie applicaties en gigantische datasets, maar start met een duidelijke onderzoeksvraag en een goed onderzocht verwerkingsproces.