Gerangschikt als #1 Beste Cloud Service Provider van Nederland 2024!
Events
6 minuten leestijd

Alumio op Emerce EDAY 2024: onderzoek naar de gevaren van AI

Geschreven door
Carla Hetherington
Gepubliceerd op
October 9, 2024
Updated on
October 11, 2024

Emerce EDAY 2024 was een dynamisch evenement dat enkele van de meest invloedrijke stemmen op het gebied van technologie, media, merken en e-commerce samenbracht. De dag zat boordevol inzichtelijke presentaties, waardoor het een niet te missen leermoment was voor professionals die graag op de hoogte willen blijven van de laatste trends. Twee presentaties die we hebben bijgewoond, wezen in het bijzonder op de mogelijke gevaren van AI, of beter gezegd het misbruik van AI, en de ethische bezwaren die daaruit voortvloeien. Van dreigende verkiezingen en democratie tot het bevorderen van eenzijdige virtuele relaties, beide presentaties wezen op cruciale ethische implicaties rond het gebruik van AI waar we allemaal op moeten letten. Blijf lezen om meer te weten te komen!

Techtonische verschuivingen: hoe digitale golven verkiezingen en democratie vormgeven. - Megan Shahi

Megan Shahi, directeur technologiebeleid bij American Progress, heeft zich verdiept in de rol van sociale media en AI-technologie bij het vormgeven van de Amerikaanse verkiezingen van 2024.

Dit is belangrijker dan ooit, aangezien de opkomst van AI-technologieën het mogelijk maakt om geavanceerde verzinsels en vervormingen te creëren, waardoor het steeds moeilijker wordt om onderscheid te maken tussen wat echt is en wat niet. In haar diepgaande onderzoek onderzocht Megan hoe reguliere sociale mediaplatforms, door AI gegenereerde inhoud, samenzweringstheorieën, verkeerde informatie en het gebrek aan regelgeving in de technische ruimte de opinie van kiezers beïnvloeden, en in sommige gevallen zelfs de resultaten van verkiezingen.

De presentatie bracht ook verschillende dringende zorgen aan het licht, zoals de noodzaak om betrouwbare bronnen van gezaghebbende informatie te identificeren in een tijdperk dat wordt gedomineerd door AI en deepfakes, de gevoeligheid van het publiek voor manipulatie, de gevaren van gerichte overreding en de flagrante afwezigheid van federale regelgeving inzake technologie in de Verenigde Staten.

Megan Shahi op Emerce EDAY 2024

De gevaren van verkeerde informatie

Megan legde uit hoe AI-tools kunnen worden misbruikt om snel valse of misleidende informatie te verspreiden op sociale media, waardoor het publieke debat wordt verstoord, de mening van kiezers wordt gemanipuleerd en democratische processen worden ondermijnd. De ethische zorg ligt in het doelbewuste gebruik van AI om te misleiden en beslissingen te beïnvloeden met verzonnen inhoud en samenzweringstheorieën — iets wat we in dit verkiezingsjaar vaak hebben gezien.

Meest recent, in september van dit jaar The Guardian berichtte over een incident met verkeerde informatie dat plaatsvond op een kritiek moment van de presidentsverkiezingen van 2024: nadat Joe Biden zich had teruggetrokken uit de presidentsverkiezingen, begon verkeerde informatie zich online te verspreiden met screenshots waarin werd beweerd dat een nieuwe kandidaat niet kon worden toegevoegd aan de stembiljetten in negen staten. Dit werd al snel miljoenen keren bekeken op Twitter, nu X, en leidde tot verzoeken om feitencontroles voor deze berichten, die gewoon verkeerd waren, aangezien de stemtermijnen nog niet waren verstreken en Kamala Harris nog genoeg tijd had om haar naam aan de stembiljetten toe te voegen. De bron van de verkeerde informatie? De AI-chatbot van Twitter, Grok. Toen gebruikers aan Gronk vroegen of een nieuwe kandidaat nog tijd had om aan de stembiljetten te worden toegevoegd, gaf hij een verkeerd antwoord.

Dit werd uiteindelijk gecorrigeerd en nu leidt de chatbot gebruikers naar een andere website, http://vote.gov, toen hem werd gevraagd naar verkiezingen. Ondanks de relatief ongevaarlijke aard van dit incident met verkeerde informatie, aangezien het mensen er niet van zou hebben weerhouden om een stembiljet uit te brengen, werd een belangrijker probleem aan de orde gesteld: hoe gemakkelijk het is om verkeerde informatie wijd en zijd te verspreiden via een social media platform. Niet alleen dat, maar Grok kan ook extreem levensechte beelden genereren die bijdragen aan partijdige verschillen en mensen in ongekende mate kunnen misleiden.

De opkomst van deepfake-technologie

De opkomst van AI-gestuurde deepfake-content vormt een ernstige bedreiging, omdat deze kan worden gebruikt om het publiek te misleiden, reputaties te schaden of zelfs de verkiezingsuitslagen te beïnvloeden. Deepfakes zijn hyperrealistische maar volledig gefabriceerde video's, afbeeldingen of audio die zijn gemaakt met behulp van AI, waarbij vaak echte of fictieve mensen worden afgebeeld in overtuigende maar valse scenario's. Hoewel sommige deepfakes voor een getraind oog gemakkelijk te detecteren zijn, zijn ze veel moeilijker te identificeren voor mensen die niet bekend zijn met de technologie of minder technisch onderlegd zijn. Helaas zijn ouderen bijzonder kwetsbaar voor deepfake-oplichting, omdat ze vaak niet over de digitale geletterdheid beschikken die jongere generaties bezitten.

Gerichte overreding en publieke gevoeligheid

Het vermogen van AI om grote hoeveelheden gegevens te analyseren heeft microtargeting mogelijk gemaakt, waarbij specifieke groepen of individuen op maat gemaakte inhoud ontvangen die is ontworpen om hun overtuigingen en acties te beïnvloeden. Dit roept ethische bezwaren op over de exploitatie van persoonsgegevens voor politieke of ideologische manipulatie, die vaak gebeurt zonder medeweten of toestemming van de betrokkenen. Gezien de effectiviteit van deze gerichte overredingstactieken, is het geen wonder dat financiële analisten de digitale gedragsgegevens van mensen hebben aangeduid als „waardevoller dan olie.”

Het overkoepelende probleem? Het ontbreken van federale regelgeving

Uiteindelijk hangt het probleem af van het gebrek aan regelgeving voor het gebruik van AI en sociale mediatechnologieën in politieke campagnes en verkiezingen in de VS en daarbuiten. Zonder adequaat toezicht kan het misbruik van AI-instrumenten ongecontroleerd blijven bestaan, waardoor schadelijke praktijken mogelijk worden die de integriteit van democratische systemen in gevaar brengen. Bovendien is het tempo waarin technologie evolueert, met name bij het creëren van nepnieuws, veel groter dan de ontwikkeling van beleid om de technologie te reguleren, waardoor aanzienlijke inspanningen nodig zijn om deze kloof te overbruggen.

Over het algemeen bood deze sessie onschatbare inzichten in de diepgaande impact van AI en sociale media op democratie. Van de verspreiding van desinformatie tot de bedreigingen die uitgaan van deepfake-inhoud en gerichte overreding, het misbruik van deze technologieën ondermijnt de verkiezingsprocessen. De dringende behoefte aan regelgeving is duidelijk; zoals Megan Shahi benadrukte, heeft de snelle vooruitgang van AI de beleidsontwikkeling overtroffen, waardoor er kritieke hiaten in het toezicht zijn ontstaan. Om deze ethische zorgen aan te pakken, is snelle actie nodig en een engagement om een beter geïnformeerd en veerkrachtig electoraat te bevorderen in het licht van digitale disruptie.

Wil je meer weten over dit onderwerp? Neem contact op met Megan Shahi op LinkedIn!

GenAI ontmoet affective computing. Onze nieuwe relaties. -Sophie Kleber

In deze sessie ging Sophie Kleber, UX-directeur bij Google, in op een cruciale vraag: hoe kunnen we virtuele persoonlijkheden ontwerpen die de menselijke uniciteit respecteren in plaats van digitale sycofanten te worden die onze kwetsbaarheden uitbuiten?

Deze presentatie draaide om het concept van computers als sociale actoren en onderzocht de menselijke zwakheden bij de interactie met humanoïde technologieën, waarbij de ethische uitdagingen en verantwoordelijkheden werden benadrukt die gepaard gaan met het creëren van emotioneel intelligente AI.

Sophie Kleber op Emerce EDAY 2024

Zeg je „alsjeblieft” en „bedankt” tegen ChatGPT?

Sophie Kleber stelde dat we de neiging hebben om de hiaten op te vullen en relaties aan te gaan wanneer technologie menselijk gedrag nabootst — een effect dat bekend staat als het 'Eliza-effect', dat meer doordringt dan we ons realiseren. Neem bijvoorbeeld ChatGPT: merk je dat je „alsjeblieft” en „bedankt” zegt? Je weet dat het gewoon een computer is die informatie doorgeeft, niet een persoon aan de andere kant. Maar de natuurlijke, gemoedelijke toon zorgt ervoor dat we dezelfde sociale conventies van beleefdheid volgen die we zouden gebruiken bij een echt persoon, alsof we bang zijn om onbeleefd te zijn, zelfs voor een machine.

Gaan we romantische relaties aan met AI?

Is „" alsjeblieft "” en „" bedankt "” zeggen tegen ChatGPT inherent problematisch?” Niet noodzakelijk, maar het wijst op een groter probleem: onze neiging om technologie menselijk te maken. Aan de ene kant van het spectrum hebben we puur transactionele, robotachtige interacties, zoals met de vroege versies van Google Assistant. Aan de andere kant zien we zeer persoonlijke en zelfs intieme verbindingen, zoals de relaties die sommige mensen hebben met 'Alexa', en zelfs als een familielid behandelen. In meer extreme gevallen wordt technologie zo gehumaniseerd dat mensen romantische gehechtheden vormen, zoals te zien is in de film Haar. Naast fictie, legde Sophie uit, gaan AI-programma's zoals „Replika” en „Xiaoice” nog een stap verder, waarbij Xiaoice meer dan 20 miljoen keer te horen kreeg „" Ik hou van jou "”.” Het bewijs is duidelijk: mensen over de hele wereld vormen emotionele, zelfs romantische relaties met AI.

In het licht hiervan is het cruciaal om te erkennen dat AI weliswaar interacties kan verbeteren, maar nooit mag worden gezien als een vervanging voor echte menselijke relaties. Hoewel AI patronen kan detecteren en reacties kan genereren met behulp van vooraf gedefinieerde algoritmen, ontbreekt het aan een genuanceerd begrip van menselijke emoties en is het niet in staat gevoelens te ervaren en cognitieve vaardigheden te hebben, zoals bewustzijn en emotionele reacties, d.w.z. gevoel. Met andere woorden, AI is niet ontworpen om tegemoet te komen aan menselijke psychologische behoeften, aangezien nabootsing niet hetzelfde is als empathie, en AI alleen in staat is tot het eerste.

Maar wie draagt de verantwoordelijkheid om grenzen te stellen met AI?

De vraag blijft: wie is verantwoordelijk voor het bepalen van de grenzen in onze relaties met AI? Moeten gebruikers zelf verantwoordelijk zijn voor het stellen van limieten, of ligt deze verantwoordelijkheid bij de makers van dergelijke technologie? Sophie pleitte voor het laatste en presenteerde een raamwerk voor ethische ontwerppraktijken in gespreksinterfaces — een raamwerk dat de menselijke interactie verbetert en tegelijkertijd de integriteit waarborgt en de uitbuiting van kwetsbaarheden voorkomt.

Nu AI steeds meer verschillende aspecten van ons dagelijks leven doordringt, zijn dit soort discussies relevanter dan ooit. Deze sessie was bijzonder waardevol voor ontwerpers, ontwikkelaars en iedereen die geïnteresseerd is in AI en interactie tussen mens en computer, en bood inzichten over hoe je virtuele persoonlijkheden kunt bouwen die de mensen die met hen omgaan echt respecteren en weerspiegelen. In de toekomst moeten we elkaar aanmoedigen om kritisch te kijken naar de ethische implicaties van het bouwen van emotioneel intelligente en humanoïde AI om vooruitgang te boeken en in de juiste richting te innoveren.

Wil je je verder verdiepen in het onderwerp? Maak contact met Sophie Kleber op LinkedIn!

Portrait of Leonie Becher Merli, 
Business Development Representative, Alumio, point to the right with both hands -  within a white circular background.

Get a free demo of the Alumio platform

to experience the business automation benefits!
Neem contact op

We helpen je graag verder en beantwoorden al je vragen

About our partner

Start integrating with popular apps!

No items found.

Connect with any custom endpoint

Start integrating with popular apps!

No items found.

Connect with

No items found.
Portrait of Leonie Becher Merli, 
Business Development Representative, Alumio, point to the right with both hands -  within a white circular background.

Get a free demo of the Alumio platform

to experience the business automation benefits!