Tech-tonische verschuivingen: Hoe digitale golven verkiezingen en democratie vormgeven. -Megan Shahi
Megan Shahi, directeur Technologiebeleid bij American Progress, ging in op de rol van sociale media en AI-technologie bij het vormgeven van de Amerikaanse verkiezingen van 2024.
Dit is belangrijker dan ooit, aangezien de opkomst van AI-technologieën de creatie van geavanceerde verzinsels en verdraaiingen mogelijk maakt, waardoor it steeds moeilijker wordt om onderscheid te maken tussen wat echt is en wat niet. In haar diepgaande onderzoek ging Megan na hoe mainstream sociale mediaplatforms, door AI gegenereerde inhoud, samenzweringstheorieën, onjuiste informatie en het gebrek aan regulering in de technische ruimte de mening van kiezers vormen - en in sommige gevallen zelfs de uitslag van verkiezingen.
De presentatie belichtte ook verschillende dringende problemen, zoals de noodzaak om betrouwbare bronnen van gezaghebbende informatie te identificeren in een tijdperk dat gedomineerd wordt door AI en deepfakes, de gevoeligheid van het publiek voor manipulatie, de gevaren van gerichte overreding en het opvallende gebrek aan federale regelgeving voor technologie in de Verenigde Staten.

De gevaren van verkeerde informatie
Megan legde uit hoe AI-tools misbruikt kunnen worden om snel valse of misleidende informatie te verspreiden via sociale media, waardoor het publieke debat wordt verstoord, de mening van kiezers wordt gemanipuleerd en democratische processen worden ondermijnd. De ethische zorg ligt in het opzettelijke gebruik van AI om te misleiden en beslissingen te beïnvloeden met verzonnen inhoud en samenzweringstheorieën, iets wat we in dit verkiezingsjaar vaak hebben gezien.
Onlangs nog, in september van dit jaar, berichtte The Guardian over een incident met verkeerde informatie dat plaatsvond op een kritiek moment van de presidentsverkiezingen van 2024: Nadat Joe Biden zich had teruggetrokken uit de presidentiële race, begon misinformatie zich online te verspreiden met schermafbeeldingen die beweerden dat een nieuwe kandidaat niet kon worden toegevoegd aan stembiljetten in negen staten. Dit verzamelde al snel miljoenen views op Twitter, nu X, en leidde tot fact-check verzoeken voor deze posts, die simpelweg fout waren, omdat de stembiljet deadlines nog niet waren verstreken en Kamala Harris nog genoeg tijd had om haar naam toe te voegen aan stembiljetten. De bron van de verkeerde informatie? Twitter's AI chatbot, Grok. Toen gebruikers Gronk vroegen of een nieuwe kandidaat nog tijd had om aan stembiljetten te worden toegevoegd, gaf it het verkeerde antwoord.
Dit werd uiteindelijk gecorrigeerd en nu verwijst de chatbot gebruikers naar een andere website, http://vote.gov, als ze vragen krijgen over verkiezingen. Ondanks de relatief onschuldige aard van dit incident met de verkeerde informatie, aangezien it mensen er niet van weerhield om hun stem uit te brengen, sprak it over een belangrijkere kwestie, namelijk hoe makkelijk it is om verkeerde informatie wijd en zijd te verspreiden via een social media platform. Niet alleen dat, maar Grok kan ook extreem levensechte beelden genereren die bijdragen aan partijpolitieke verdeeldheid en mensen tot op ongekende hoogte kunnen misleiden.
De opkomst van deepfake technologie
Megan stelde dat de opkomst van AI-gestuurde deepfake content een ernstige bedreiging vormt, omdat it kan worden gebruikt om het publiek te misleiden, reputaties te beschadigen of zelfs verkiezingsuitslagen te beïnvloeden. Deepfakes zijn hyperrealistische maar volledig verzonnen video's, afbeeldingen of audio die zijn gemaakt met behulp van AI, waarbij vaak echte of fictieve mensen in overtuigende maar valse scenario's worden afgebeeld. Terwijl sommige deepfakes voor een getraind oog gemakkelijk te detecteren zijn, zijn ze veel moeilijker te herkennen voor mensen die niet bekend zijn met de technologie of minder technisch onderlegd zijn. Helaas zijn oudere mensen bijzonder kwetsbaar voor deepfake scams, omdat ze vaak niet de digitale kennis hebben die jongere generaties wel hebben.
Gerichte overreding en vatbaarheid van het publiek
Het vermogen van AI om enorme hoeveelheden gegevens te analyseren heeft micro-targeting mogelijk gemaakt, waarbij specifieke groepen of individuen op maat gemaakte inhoud ontvangen die is ontworpen om hun overtuigingen en acties te beïnvloeden. Dit roept ethische bezwaren op over het gebruik van persoonlijke gegevens voor politieke of ideologische manipulatie, vaak zonder medeweten of toestemming van de betrokkenen. Gezien de effectiviteit van deze gerichte overredingstactieken is itgeen wonder dat financiële analisten de digitale gedragsgegevens van mensen "waardevoller dan olie" hebben genoemd .
Het overkoepelende probleem? Het gebrek aan federale regelgeving
Uiteindelijk, legde Megan uit, draait het om het gebrek aan regelgeving voor het gebruik van AI en sociale mediatechnologieën bij politieke campagnes en verkiezingen in de VS en daarbuiten. Zonder adequaat toezicht kan het misbruik van AI-tools ongecontroleerd doorgaan, waardoor schadelijke praktijken mogelijk worden die de integriteit van democratische systemen in gevaar brengen. Bovendien ontwikkelt de technologie zich veel sneller - met name bij het creëren van nepnieuws - dan dat er beleid wordt ontwikkeld om it te reguleren, waardoor er aanzienlijke inspanningen nodig zijn om deze kloof te overbruggen.
Over het geheel genomen bood deze sessie onschatbare inzichten in de diepgaande invloed van AI en sociale media op de democratie. Van de verspreiding van desinformatie tot de bedreigingen van deepfake content en gerichte overreding, het misbruik van deze technologieën ondermijnt verkiezingsprocessen. Het is duidelijk dat er dringend behoefte is aan regelgeving; zoals Megan Shahi benadrukte, heeft de snelle vooruitgang van AI de ontwikkeling van beleid ingehaald, waardoor er kritieke gaten in het toezicht zijn ontstaan. Om deze ethische problemen aan te pakken, moet er snel actie worden ondernomen en moeten we ons inzetten voor een beter geïnformeerd en weerbaar electoraat in het licht van digitale ontwrichting.
Geïnteresseerd in meer informatie over dit onderwerp? Neem contact op met Megan Shahi op LinkedIn!
GenAI ontmoet affectief computergebruik. Onze nieuwe relaties. -Sophie Kleber
In deze sessie ging Sophie Kleber, UX Director bij Google, in op een kritieke vraag: Hoe kunnen we virtuele persoonlijkheden ontwerpen die de menselijke uniekheid respecteren in plaats van digitale pluimstrijkers te worden die onze kwetsbaarheden uitbuiten?
Deze presentatie draaide om het concept van computers als sociale actoren en onderzocht menselijke zwakheden in de interactie met humanoïde technologieën, waarbij de ethische uitdagingen en verantwoordelijkheden bij het creëren van emotioneel intelligente AI werden benadrukt.

Zeg je "alsjeblieft" en "dank je" tegen ChatGPT?
Sophie Kleber stelde dat we geneigd zijn om de gaten op te vullen en relaties aan te gaan wanneer technologie menselijk gedrag nabootst - een effect dat bekend staat als het "Eliza-effect" en dat algemener is dan we beseffen. Neem bijvoorbeeld ChatGPT: Betrap je jezelf erop dat je "alsjeblieft" en "dank je wel" zegt? Je weet dat itgewoon een computer is die informatie doorgeeft en geen persoon aan de andere kant. Toch zet de natuurlijke, conversationele toon ons aan om dezelfde sociale beleefdheidsconventies te volgen die we bij een echt persoon zouden gebruiken, alsof we bang zijn onbeleefd te zijn - zelfs tegen een machine.
Gaan we romantische relaties aan met AI?
Is "alsjeblieft" en "dank je" zeggen tegen ChatGPT per definitie problematisch? Niet per se, maar it wijst op een groter probleem - onze neiging om technologie te vermenselijken. Sophie legde uit dat we aan de ene kant van het spectrum puur transactionele, robotachtige interacties hebben, zoals met de eerste versies van Google Assistant. Aan de andere kant zien we zeer persoonlijke en zelfs intieme connecties, zoals de relatie die sommige mensen hebben met "Alexa", it zelfs behandelen als een familielid. In extremere gevallen wordt technologie zo menselijk dat mensen een romantische band krijgen, zoals te zien is in de film Her. Naast fictie gaan AI-programma's zoals "Replika" en "Xiaoice" nog een stapje verder, waarbij Xiaoice meer dan 20 miljoen keer "Ik hou van je" te horen kreeg. Het bewijs is duidelijk: mensen over de hele wereld gaan emotionele, zelfs romantische relaties aan met AI.
Sophie dringt er dan ook bij ons op aan om te erkennen dat AI weliswaar interacties kan verbeteren, maar nooit gezien mag worden als vervanging voor echte menselijke relaties. Hoewel AI patronen kan detecteren en reacties kan genereren met behulp van vooraf gedefinieerde algoritmen, mist it een genuanceerd begrip van menselijke emoties en is het niet in staat om gevoelens te ervaren en cognitieve vaardigheden te bezitten, zoals bewustzijn en emotionele reacties, oftewel gevoel. Met andere woorden, AI is niet ontworpen om aan menselijke psychologische behoeften te voldoen omdat nabootsing niet hetzelfde is als empathie en AI alleen in staat is tot het eerste.
Maar wie draagt de verantwoordelijkheid voor het stellen van grenzen met AI?
De vraag blijft: Wie is verantwoordelijk voor het bepalen van de grenzen in onze relaties met AI? Moeten gebruikers zelf verantwoordelijk zijn voor het stellen van grenzen, of ligt deze verantwoordelijkheid bij de makers van dergelijke technologie? Sophie pleitte voor het laatste en presenteerde een raamwerk voor ethische ontwerppraktijken in conversatie-interfaces - een raamwerk dat de menselijke interactie verbetert en tegelijkertijd de integriteit waarborgt en het uitbuiten van kwetsbaarheden voorkomt.
Nu AI steeds meer doordringt in verschillende aspecten van ons dagelijks leven, zijn discussies als deze relevanter dan ooit. Deze sessie was vooral waardevol voor ontwerpers, ontwikkelaars en iedereen die geïnteresseerd is in AI en mens-computerinteractie, omdat het inzichten biedt in hoe je virtuele persoonlijkheden kunt bouwen die de mensen die ermee omgaan echt respecteren en weerspiegelen. In de toekomst moeten we elkaar aanmoedigen om de ethische implicaties van het bouwen van emotioneel intelligente en humanoïde AI kritisch te evalueren om vooruitgang te boeken en in de juiste richting te innoveren.
Wil je je verder in het onderwerp verdiepen? Connect met Sophie Kleber op LinkedIn!