Tekniktoniska skiftningar: Hur digitala vågor formar val och demokrati. -Megan Shahi
Megan Shahi, chef för Technology Policy på American Progress, fördjupade sig i sociala mediers och AI-teknikens roll i utformningen av det amerikanska valet 2024.
Detta är mer kritiskt än någonsin, eftersom AI-teknikens framväxt möjliggör skapandet av sofistikerade fabriceringar och förvrängningar, vilket gör it allt svårare att skilja mellan vad som är verkligt och vad som inte är det. I sin djupdykning undersökte Megan hur vanliga sociala medieplattformar, AI-genererat innehåll, konspirationsteorier, felaktig information och bristen på reglering inom teknikområdet formar väljarnas åsikter - och i vissa fall till och med valresultaten.
Presentationen belyste också flera angelägna frågor, t.ex. behovet av att identifiera tillförlitliga källor till auktoritativ information i en tid som domineras av AI och deepfakes, allmänhetens mottaglighet för manipulation, farorna med riktad övertalning och den uppenbara avsaknaden av federala bestämmelser som styr tekniken i USA.

Farorna med felaktig information
Megan förklarade hur AI-verktyg kan missbrukas för att snabbt sprida falsk eller vilseledande information i sociala medier, vilket snedvrider det offentliga samtalet, manipulerar väljarnas åsikter och undergräver demokratiska processer. Det etiska problemet ligger i den avsiktliga användningen av AI för att lura, påverka beslut med fabricerat innehåll och konspirationsteorier - något som vi ofta har sett under det här valåret.
Senast i september i år rapporterade The Guardian om en incident med felaktig information som ägde rum vid ett kritiskt tillfälle i presidentvalet 2024: Efter att Joe Biden dragit sig ur presidentvalet började felaktig information spridas på nätet med skärmdumpar som hävdade att en ny kandidat inte kunde läggas till på valsedlarna i nio delstater. Detta samlade snabbt miljontals visningar på Twitter, nu X, och ledde till förfrågningar om faktakontroll av dessa inlägg, som helt enkelt var felaktiga, eftersom tidsfristerna för valsedlar inte hade passerat och Kamala Harris fortfarande hade gott om tid att få sitt namn tillagt på valsedlarna. Källan till den felaktiga informationen? Twitters AI-chatbot Grok. När användare frågade Gronk om en ny kandidat fortfarande hade tid på sig att läggas till på valsedlarna gav it fel svar.
Detta korrigerades så småningom, och nu hänvisar chatboten användarna till en annan webbplats, http://vote.gov, när de får frågor om val. Trots att denna incident med felaktig information var relativt harmlös, eftersom it inte skulle ha hindrat människor från att rösta, pekade it på en viktigare fråga - hur lätt it är att sprida felaktig information långt och brett med hjälp av en plattform för sociala medier. Grok kan dessutom generera extremt verklighetstrogna bilder som bidrar till partipolitiska klyftor och kan vilseleda människor i en aldrig tidigare skådad utsträckning.
Framväxten av deepfake-teknik
Megan hävdade att ökningen av AI-drivet deepfake-innehåll utgör ett allvarligt hot, eftersom it kan användas för att vilseleda allmänheten, skada anseende eller till och med påverka valresultat. Deepfakes är hyperrealistiska men helt fabricerade videor, bilder eller ljud som skapats med hjälp av AI och som ofta skildrar verkliga eller fiktiva personer i övertygande men falska scenarier. Vissa deepfakes kan vara lätta att upptäcka för ett tränat öga, men de är mycket svårare att identifiera för den som inte känner till tekniken eller är mindre tekniskt kunnig. Tyvärr är äldre personer särskilt sårbara för deepfake-bedrägerier, eftersom de ofta saknar den digitala kompetens som yngre generationer besitter.
Riktad övertalning och allmänhetens mottaglighet
AI:s förmåga att analysera stora mängder data har möjliggjort mikroinriktning, där specifika grupper eller individer får skräddarsytt innehåll som är utformat för att påverka deras övertygelser och handlingar. Detta väcker etiska frågor om utnyttjandet av personuppgifter för politisk eller ideologisk manipulation, som ofta sker utan de berörda personernas vetskap eller samtycke. Med tanke på hur effektiva dessa riktade övertalningstaktiker är, är itinte konstigt att finansanalytiker har kallat människors digitala beteendedata för "mer värdefulla än olja".
Det övergripande problemet? Avsaknaden av federala bestämmelser
I slutändan, förklarade Megan, hänger frågan på bristen på regler som styr användningen av AI och sociala medier i politiska kampanjer och val i USA och utanför. Utan tillräcklig tillsyn kan missbruk av AI-verktyg fortgå okontrollerat, vilket möjliggör skadliga metoder som äventyrar integriteten i demokratiska system. Dessutom går teknikutvecklingen - särskilt när det gäller att skapa falska nyheter - mycket snabbare än utvecklingen av policyer för att reglera it, vilket kräver betydande insatser för att överbrygga detta gap.
Sammantaget gav denna session ovärderliga insikter om den djupgående inverkan som AI och sociala medier har på demokratin. Missbruket av dessa tekniker undergräver valprocesserna, från spridningen av desinformation till hoten från deepfake-innehåll och riktad övertalning. Det akuta behovet av reglering är uppenbart; som Megan Shahi framhöll har den snabba utvecklingen av AI gått snabbare än policyutvecklingen, vilket lämnar kritiska luckor i tillsynen. För att ta itu med dessa etiska problem krävs snabba åtgärder och ett åtagande att främja en mer informerad och motståndskraftig väljarkår inför den digitala omvälvningen.
Är du intresserad av att lära dig mer om detta ämne? Hör av dig till Megan Shahi på LinkedIn!
GenAI möter affective computing. Våra nya relationer. -Sophie Kleber
I den här sessionen tog Sophie Kleber, UX Director på Google, upp en kritisk fråga: Hur kan vi utforma virtuella personligheter som respekterar människans unika egenskaper i stället för att bli digitala lismare som utnyttjar våra svagheter?
Presentationen kretsade kring konceptet med datorer som sociala aktörer och utforskade mänskliga svagheter i interaktionen med humanoidteknik, och belyste de etiska utmaningar och ansvarsområden som är förknippade med att skapa emotionellt intelligent AI.

Säger du "snälla" och "tack" till ChatGPT?
Sophie Kleber menade att vi tenderar att fylla i luckorna och skapa relationer när tekniken efterliknar mänskligt beteende - en effekt som kallas "Eliza-effekten" och som är mer utbredd än vi tror. Ta ChatGPT, till exempel: Kommer du på dig själv med att säga "snälla" och "tack"? Du vet att itbara är en dator som vidarebefordrar information, inte en person på andra sidan. Ändå uppmanar den naturliga samtalstonen oss att följa samma sociala konventioner för artighet som vi skulle använda med en riktig person, som om vi är rädda för att vara oförskämda - även mot en maskin.
Inleder vi romantiska relationer med AI?
Är det i sig problematiskt att säga "snälla" och "tack" till ChatGPT? Inte nödvändigtvis, men it pekar på en större fråga - vår tendens att förmänskliga tekniken. Sophie förklarade att vi i ena änden av spektrumet har rent transaktionella, robotliknande interaktioner, till exempel med de tidiga versionerna av Google Assistant. I den andra änden ser vi mycket personliga och till och med intima relationer, som de relationer som vissa människor har med "Alexa", som it till och med behandlar som en familjemedlem. I mer extrema fall blir tekniken så förmänskligad att människor skapar romantiska band, som i filmen Her. Bortom fiktionen tar AI-program som "Replika" och "Xiaoice" detta ett steg längre, där Xiaoice har fått höra "Jag älskar dig" över 20 miljoner gånger. Bevisen är tydliga: Människor runt om i världen skapar känslomässiga, till och med romantiska, relationer med AI.
Mot bakgrund av detta uppmanar Sophie oss att inse att även om AI kan förbättra interaktioner bör it aldrig ses som en ersättning för genuina mänskliga relationer. Även om AI kan upptäcka mönster och generera svar med hjälp av fördefinierade algoritmer saknar it en nyanserad förståelse för mänskliga känslor och kan inte uppleva känslor och ha kognitiva förmågor, som medvetenhet och känslomässiga reaktioner, dvs. sentience. AI är med andra ord inte utformat för att tillgodose människans psykologiska behov, eftersom imitation inte är detsamma som empati och AI endast är kapabel till det förstnämnda.
Men vem bär ansvaret för att sätta gränser med AI?
Frågan kvarstår: Vem är ansvarig för att definiera gränserna i våra relationer med AI? Ska användarna själva vara ansvariga för att sätta gränser, eller faller detta ansvar på skaparna av sådan teknik? Sophie argumenterade för det senare och presenterade ett ramverk för etisk designpraxis i konversationsgränssnitt - ett ramverk som förbättrar mänsklig interaktion samtidigt som integriteten värnas och sårbarheter inte utnyttjas.
I takt med att AI alltmer genomsyrar olika aspekter av vårt dagliga liv är diskussioner som dessa mer relevanta än någonsin. Den här sessionen var särskilt värdefull för designers, utvecklare och alla som är intresserade av AI och interaktion mellan människa och dator, och gav insikter om hur man bygger virtuella personligheter som verkligen respekterar och återspeglar de människor som interagerar med dem. Framöver bör vi uppmuntra varandra att kritiskt utvärdera de etiska konsekvenserna av att bygga emotionellt intelligent och humanoid AI för att kunna göra framsteg och innovera i rätt riktning.
Vill du fördjupa dig ytterligare i ämnet? Kom i kontakt med Sophie Kleber på LinkedIn!