Gaat AI de verkiezingen het komende jaar ondermijnen?
Dit jaar gaat de helft van de wereldbevolking naar de stembus. Meer dan 4 miljard mensen mogen hun stem uitbrengen tijdens een van de 40 verkiezingen die er worden gehouden. Niet alle verkiezingen gaan waarschijnlijk democratisch verlopen, zoals in Rusland. Maar er zijn vooral zorgen over de negatieve impact van technologie zoals AI die verkiezingen weleens zouden kunnen ondermijnen.
De uitslagen van de verkiezingen van dit jaar gaan naar verwachting aanzienlijke en wereldwijde gevolgen hebben voor de toekomst van de democratie. Maar ook voor belangrijke onderwerpen zoals mensenrechten, veiligheid en klimaatactie. In Bangladesh en Taiwan gingen stemmers al naar de bus om hun democratische recht uit te oefenen. Later dit jaar volgen wereldmachten als de VS, India en het Verenigd Koninkrijk.
Zelf heb ik twee keer in een campagneteam van een politieke partij mogen meewerken aan een verkiezingscampagne. Hierdoor maakte ik kennis met de rol die technologie hierin speelt. Zoals:
- Big data-analyses om kiezers te leren kennen, en
- getargete ads op social media om specifieke doelgroepen met een specifieke boodschap aan te spreken.
Maar in een tijdperk van AI worden zelfs de meest krachtige democratieën bang bij het idee wat voor negatieve impact technologie kan hebben op de stembusgang. Zo bang zelfs, dat mijn collega’s van het World Economic Forum ‘AI-gegenereerde desinformatie’ als grootste risico voor 2024 beschouwen.
AI-gegenereerde desinformatie
Media als de New York Times en de BBC waarschuwden hier al in 2018 voor. En talloze wetenschappelijke artikelen tonen aan wat voor ongekend groot, negatief effect de verspreiding van desinformatie via social media kan hebben op verkiezingen, door het manipuleren van de online dialoog en laten verdwijnen van vertrouwen.
We hebben dit uiteraard eerder gezien. Cambridge Analytica, een politiek data-analysebedrijf, verzamelde zonder toestemming persoonlijke gegevens van ongeveer 87 miljoen Facebook-gebruikers. Deze gegevens werden gebruikt om psychologische profielen op te stellen en gerichte politieke advertenties te verspreiden. Het bedrijf beweerde een rol te hebben gespeeld in de beïnvloeding van ongeveer 200 verkiezingen wereldwijd.
AI weapons for mass desinformation
‘Bewaar uw stem voor de verkiezingen van november’. Vorige maand ging er een robocall uit waarin de Amerikaanse president Joe Biden werd nagebootst. De boodschap was gericht op kiezers in de Amerikaanse staat New Hampshire, waarin hen werd geadviseerd niet te stemmen bij de presidentsverkiezingen van de staat.
De stem, gegenereerd door AI, klonk ontzettend echt. Dit laat ook gelijk het grote probleem zien met de snel ontwikkelende AI-technologie. We hebben het niet langer over het photoshoppen van kleine aanpassingen aan hoe iemand eruitziet. We hebben het over de grootschalige creatie en verspreiding van zeer echt uitziende informatie, die door elke technische leek kan worden gefabriceerd.
Dat veel mensen dit soort gefabriceerde informatie blindelings geloven, bleek uit een online test van de New York Times. Lezers werden uitgenodigd om naar tien afbeeldingen te kijken en te proberen vast te stellen welke echt waren en welke door AI waren gegenereerd. Een beetje hetzelfde wat Lubach in zijn vaste rubriek doet met ‘Kamerlid of AI’.
De test toonde aan hoe moeilijk het is om onderscheid te maken tussen echte en door AI gegenereerde afbeeldingen. Dit werd ondersteund door meerdere academische onderzoeken, waaruit bleek dat “gezichten van blanke mensen, gecreëerd door AI-systemen, als realistischer werden ervaren dan echte foto’s”, aldus journalist Stuart Thompson.
De democratisering van desinformatie
Sociale media verlaagden de kosten voor het verspreiden van verkeerde informatie of informatie. AI verlaagt de kosten voor de productie ervan. De makkelijk te gebruiken dashboards van LLM AI-modellen hebben al een explosie aan vervalste informatie en zogenaamde ‘synthetische’ inhoud mogelijk gemaakt. Van geavanceerd stemklonen tot nagemaakte websites.
De technologie zorgt voor een verregaande democratisering van desinformatie, door zeer geavanceerde tools te bieden aan iedere burger die geïnteresseerd is in het promoten van zijn favoriete kandidaat door boodschappen te verspreiden die ze willen. Mensen hoeven niet langer developers of Photoshop wizards te zijn om tekst, afbeeldingen of video te genereren. Maar ze hoeven ook niet per se voor een Russische of Chinese trollfarm te werken om chaos te zaaien. Iedereen kan wat dat betreft een maker van politieke content worden en proberen kiezers of de media te beïnvloeden.
Het is een wereldwijd probleem
We zagen naast het voorbeeld van Biden in de VS ook wereldwijd al andere concrete voorbeelden voorbijkomen. Venezolaanse staatsmedia verspreiden bijvoorbeeld pro-regeringsboodschappen via AI-gegenereerde video’s van nieuwslezers van een niet-bestaand internationaal Engelstalig kanaal. Ze werden gegenereerd door Synthesia, een bedrijf dat op maat gemaakte deepfakes produceert.
Bij de recente verkiezingen in Slowakije circuleerden door AI gegenereerde audio-opnamen op Facebook, waarin een liberale kandidaat werd nagebootst die plannen besprak om de alcoholprijzen te verhogen en de verkiezingen te manipuleren. Tijdens de Nigeriaanse verkiezingen van februari vorig jaar, werd in een door AI gemanipuleerd audiofragment ten onrechte een presidentskandidaat betrokken bij plannen om stembiljetten te manipuleren.
Oude fraude, nieuwe trucjes
Veel typen fraude die we voorbij zien komen, zijn niet nieuw. Scammers doen al jaren aan ‘voice cloning’ en het gebruik van deepfakes om mensen te misleiden. Het grote verschil is hier dus echt de eenvoud waarmee iedere wereldburger zelf dit kan doen met tools die vrij voor handen zijn. Eerder schreef ik al over startups die het mogelijk maken om met een korte stemopname, wat foto’s en filmmateriaal een overleden persoon weer ‘tot leven te wekken’ als een 3D hologram, waar je zelfs een gesprek mee kan voeren. Dat is in mijn optiek echt een prachtig voorbeeld van de kracht van convergentie van technologieën. Maar het kan ook op een verkeerde manier gebruikt worden. Volgens de Financial Times stijgt het aantal scams in de financiële sector in recordtempo.
Laatst heb ik in een masterclass rondom het gebruik van AI met de deelnemers gekeken hoe makkelijk het is om een fake ID te maken. Dit deed ik naar aanleiding van deze Reddit post die viral ging. De verwondering veranderde al snel in verbazing. Bij veel organisaties, zoals banken, kan je online bijvoorbeeld een bankrekening afsluiten. Om dit proces succesvol af te ronden, is de identificatie nodig door middel van het uploaden van een identiteitsbewijs en een selfie die je maakt. Een simpele leek kan nu al via tools als Midjourney een fake ID laten genereren. Wat doet dit met al die zogenaamde Know Your Customer (KYC-) processen, die hier zo sterk van afhankelijk zijn?
Het is trouwens niet alleen de negatieve impact van Generatieve AI waarvoor wordt gewaarschuwd rondom verkiezingen. Een recent rapport van Freedom House laat zien dat ook steeds meer overheden AI gebruiken om censuur toe te passen op de bevolking. Door bijvoorbeeld het controleren van internettoegang. Iets wat we al zien/zagen in Turkije, Iran en Ethiopië.
Wassen neus of sterke vuist?
Normaal worden grote technologiebedrijven in de Verenigde Staten vaak met rust gelaten. Maar in oktober afgelopen jaar tekende de Amerikaanse president Biden een zogenaamde ‘executive order‘ om AI-gegenereerde content verplicht te laten watermerken. Helaas hebben al veel experts vanuit zowel de hoek van de overheid als de technologiebedrijven aangegeven niet eens te begrijpen wat ze moeten verstaan onder ‘watermerken.
Gelukkig hebben 20 grote technologiebedrijven (waaronder Google, Meta, Microsoft, OpenAI, TikTok, X, Amazon en Adobe) begin dit jaar beloofd te helpen voorkomen dat verkeerd gebruik van AI een impact zal hebben op de wereldwijde verkiezingen. Ze tekenden hiervoor de ‘Tech Accord to Combat Deceptive Use of AI in 2024 Elections’. Een ‘vrijwillige’ overeenkomst met acht specifieke toezeggingen om technologie in te zetten die schadelijke AI-inhoud tegen moeten gaan. Je kan dan denken aan detectiemechanismen van de verspreiding van dit soort content op hun platforms, maar ook bij het genereren ervan.
How can we ensure that AI and technology are forces for good rather than chaos? – Ravi Agrawal, Edit-in-Chief, Foreign Policy
Acties van Google, OpenAI en Microsoft
Daarnaast hebben de bedrijven ook los van elkaar talloze acties aangekondigd. Google verplicht politieke adverteerders om op zeer duidelijke manier duidelijk te maken of inhoud digitaal is gewijzigd of gegenereerd met AI. Ook heeft het de beantwoording van verkiezingsgerelateerde vragen door haar chatbot Gemini beperkt. Zusje YouTube zal van makers van video’s verplichten om duidelijk te maken of ze AI-gegenreerde content posten of niet.
ChatGPT eigenaar OpenAI heeft aangegeven dat het authenticatie-tools zal introduceren waarmee de gebruiker direct kan zien of een afbeelding te vertrouwen is of niet. Het heeft ook gezegd dat het politici en politieke campagnes met behulp van deze tools zal verbieden. Ik ben benieuwd hoe dit er concreet uit gaat zien. Een Nederlandse politieke partij als de BBB heeft natuurlijk al aangegeven dat ze het verkiezingsprogramma deels met GPT heeft geschreven.
Ook grootaandeelhouder Microsoft komt met soortgelijke maatregelen om inhoud te verifiëren. Daarnaast heeft het naar eigen zeggen haar zoekmachine Bing een upgrade gegeven, om gebruikers resultaten te geven van gezaghebbende, geverifieerde bronnen.
Socialmediakanalen
Het afgelopen jaar kwam X veel in het nieuws rondom de grote hoeveelheid desinformatie die op het platform wordt verspreid. Dat komt mede omdat de nieuwe eigenaar Elon Musk het verkiezings-integriteitsteam van het platform ontsloeg. Volgens Musk ondermijnde dit juist ‘de verkiezingsintegriteit’. Recent introduceerde X de ‘Community Notes’ als belangrijkste (extern gepubliceerde) tool om desinformatie te bestrijden. Het wordt echter door veel experts bekritiseerd als gebrekkig, foutgevoelig en ontoereikend.
Facebook-moeder Meta is door het Cambridge Analytica-schandaal al wat langer semi-gedwongen bezig met het voorkomen van dat het platform wordt misbruikt voor de beïnvloeding van verkiezingen. Ook Meta laat politieke adverteerders verplichten om hun naam er duidelijk bij te vermelden en om duidelijk aan te geven of content AI-gegenereerd is.
Timestamp it with the trust machine
Zoals ik al eerder schreef, zie ik de samensmelting (convergentie) van verschillende nieuwe technologieën echt als de volgende grote stap voorwaarts. Je ziet de meest gave voorbeelden, zoals:
- drones die worden aangestuurd door IoT en machine learning om gewassen te besproeien, en
- dat blockchain en AI elkaar versterken, door blockchain-code (smart contracts) te controleren op bugs en AI-data decentraal op te slaan en eigenaren te belonen voor het gebruik met crypto.
Waar AI momenteel juist voor veel onenigheid zorgt en door alle eerder beschreven cases het vertrouwen in de technologie laat verminderen, wordt blockchain juist omschreven als de ‘trust machine’. Door de technologische aard ervan, kan je bijvoorbeeld niks wijzigen aan data die je op de blockchain hebt gezet. Dat zorgt in talloze industrieën wereldwijd voor vertrouwen in de data.
Blockchain kan bijvoorbeeld met het zogenaamde ‘timestampen’ content waarmerken en dus de kijker ervan het vertrouwen geven dat er niet mee is geklooid. De Amsterdamse startup Wordproof won hier een prestigieuze Europese innovatieprijs mee en heeft zo bijvoorbeeld al alle artikelen van het NRC getimestamped. Aan de andere kant van de oceaan zet Fox (van onder andere Fox News) blockchain-technologie in (Polygon) om eenzelfde oplossing aan te bieden.
In Guatamala werden vorig jaar zelfs de verkiezingen met deze technologie op de blockchain gezet. Iets waar ik in 2019 al over schreef en waar nu door steeds meer overheden mee geëxperimenteerd wordt.
Robo-vrijwilligers en gesprekspartners
Het is niet alleen maar kommer en kwel rondom de verkiezingen. Ik zie wat dat betreft ook genoeg kanten waar technologie juist een positieve impact kan hebben.
Recent mocht ik bijvoorbeeld voor een groep politici een workshop over AI geven en gaf hier het voorbeeld van het opzetten van een eigen chatbot. Hier liet ik twee (vooraf gemaakte) voorbeelden zien:
- Een bot waar ik de verkiezingsprogramma van alle partijen had geupload en dus heel simpel, maar doeltreffend, een discussie kon voeren over onderwerpen die mij aan het hart gaan.
- Maar ook en bot voor een partij zelf. Je kan hier namelijk alles in uploaden: stemgedrag, blogs, krantenartikelen … Op basis daarvan kan je een potentiële kiezer de mogelijkheid geven om een gesprek aan te gaan, zo diep diegene maar wil. Op een moment en locatie naar keuze.
Dat is een platte chatbot, maar er zijn ook al politici die virtuele vrijwilligers zo inzetten. Een mooi voorbeeld is de democratische kandidaat Shamaine Daniels uit de Amerikaanse staat Pennsylvania. Zij gebruikt voor haar campagne Ashley, een AI-campagne-vrijwilliger. Ook de democratische Amerikaanse presidentskandidaat Dean Philips heeft zo de ‘Dean.Bot’ gelanceerd.
Het antwoord op de fake ID’s? Daarvoor wordt toch gewezen op het veel bekritiseerde Worldcoin-project, waar ik eerder over schreef. Het zou door de opzet van de techniek zorgen voor een echte ‘proof of humanity’. Experts betwijfelen dit.
Leugenaarsdividenden
Medeoprichter van het Center for Humane Technology, Tristan Harris, waarschuwt al langer en breeduit over de negatieve impact van technologieën als AI op bijvoorbeeld verkiezingen.
Een van de uitdagingen is bijvoorbeeld dat campagnetoespraken beschermde uitingen zijn. Kandidaten kunnen in principe (in de meeste, democratische landen) vrijwel alles zeggen en doen wat ze willen, zonder risico op juridische consequenties. Zelfs als hun uitingen overduidelijk onjuist zijn, komen ze vrijwel altijd vrijuit en worden hier niet op aangepakt door bijvoorbeeld een rechter.
Een andere uitdaging is het feit dat volgens onderzoek desinformatie juist het beste gedijt op kleine platformen. Platformen die in tegenstelling tot de grotere broers juist nog niet bekend hebben gemaakt hoe ze desinformatie aan gaan pakken. Dit zijn platformen die vaak ook veel minder budget hebben voor zaken als contentmoderatie.
Maar ook een ander interessant onderzoek uit 2018 laat het bewijs zien voor het zogenaamde ‘leugenaarsdividend’. Het suggereert dat naarmate het publiek zich meer bewust wordt van het feit dat AI video en audio op overtuigende wijze kan genereren, de ‘bad actors’ juist authentieke en echte content als ‘nep’ aanmerken, wat volgens de auteurs voor een nóg onduidelijkere informatievoorziening zorgt richting de kiezers. Met alle gevolgen van dien.
Zal AI net zo’n of zelfs een nog veel ergere impact hebben op de verkiezingen dit jaar? Time will tell. Ik heb zelf nog steeds hoop dat technologie kan helpen met het voorkomen van het gebruik door ‘bad actors’. We gaan het komende jaar zien of alle maatregelen hebben geholpen en de grote angst voor niets is geweest.
Nurture is being replaced by an algorithm. I’m calling out the real-time experiment that’s being run on us and democracy right now. – Ian Bremmer, president of the Eurasia Group