Alumio rankas som #1 IT Cloud Service Provider i Nederländerna 
Läs mer om detta
En vit pil som pekar åt höger, en visuell representation av hur man kommer till mer sidmaterial när man klickar på it
Händelser
6 min läsning

Alumio på Emerce EDAY 2024: Utforska farorna med AI

Skrivet av
Carla Hetherington
Publicerad på
9 oktober 2024
Uppdaterad den
12 mars 2025

Emerce EDAY 2024 var ett dynamiskt evenemang som sammanförde några av de mest inflytelserika rösterna inom teknik, media, varumärken och e-handel. Dagen var fullspäckad med insiktsfulla presentationer, vilket gjorde it till en omistlig inlärningsmöjlighet för yrkesverksamma som är angelägna om att ligga före de senaste trenderna. Vi lyssnade särskilt på två presentationer som pekade på de potentiella farorna med AI, eller snarare missbruket av AI, och de etiska problem som uppstår i samband med it. Från att hota val och demokrati till att främja ensidiga virtuella relationer - båda presentationerna belyste viktiga etiska konsekvenser kring användningen av AI som vi alla bör se upp med. Fortsätt läsa för att få reda på mer!

Tekniktoniska skiftningar: Hur digitala vågor formar val och demokrati. -Megan Shahi

Megan Shahi, chef för Technology Policy på American Progress, fördjupade sig i sociala mediers och AI-teknikens roll i utformningen av det amerikanska valet 2024.

Detta är mer kritiskt än någonsin, eftersom AI-teknikens framväxt möjliggör skapandet av sofistikerade fabriceringar och förvrängningar, vilket gör it allt svårare att skilja mellan vad som är verkligt och vad som inte är det. I sin djupdykning undersökte Megan hur vanliga sociala medieplattformar, AI-genererat innehåll, konspirationsteorier, felaktig information och bristen på reglering inom teknikområdet formar väljarnas åsikter - och i vissa fall till och med valresultaten.

Presentationen belyste också flera angelägna frågor, t.ex. behovet av att identifiera tillförlitliga källor till auktoritativ information i en tid som domineras av AI och deepfakes, allmänhetens mottaglighet för manipulation, farorna med riktad övertalning och den uppenbara avsaknaden av federala bestämmelser som styr tekniken i USA.

Megan Shahi på Emerce EDAY 2024

Farorna med felaktig information

Megan förklarade hur AI-verktyg kan missbrukas för att snabbt sprida falsk eller vilseledande information i sociala medier, vilket snedvrider det offentliga samtalet, manipulerar väljarnas åsikter och undergräver demokratiska processer. Det etiska problemet ligger i den avsiktliga användningen av AI för att lura, påverka beslut med fabricerat innehåll och konspirationsteorier - något som vi ofta har sett under det här valåret.

Senast i september i år rapporterade The Guardian om en incident med felaktig information som ägde rum vid ett kritiskt tillfälle i presidentvalet 2024: Efter att Joe Biden dragit sig ur presidentvalet började felaktig information spridas på nätet med skärmdumpar som hävdade att en ny kandidat inte kunde läggas till på valsedlarna i nio delstater. Detta samlade snabbt miljontals visningar på Twitter, nu X, och ledde till förfrågningar om faktakontroll av dessa inlägg, som helt enkelt var felaktiga, eftersom tidsfristerna för valsedlar inte hade passerat och Kamala Harris fortfarande hade gott om tid att få sitt namn tillagt på valsedlarna. Källan till den felaktiga informationen? Twitters AI-chatbot Grok. När användare frågade Gronk om en ny kandidat fortfarande hade tid på sig att läggas till på valsedlarna gav it fel svar.

Detta korrigerades så småningom, och nu hänvisar chatboten användarna till en annan webbplats, http://vote.gov, när de får frågor om val. Trots att denna incident med felaktig information var relativt harmlös, eftersom it inte skulle ha hindrat människor från att rösta, pekade it på en viktigare fråga - hur lätt it är att sprida felaktig information långt och brett med hjälp av en plattform för sociala medier. Grok kan dessutom generera extremt verklighetstrogna bilder som bidrar till partipolitiska klyftor och kan vilseleda människor i en aldrig tidigare skådad utsträckning.

Framväxten av deepfake-teknik

Megan hävdade att ökningen av AI-drivet deepfake-innehåll utgör ett allvarligt hot, eftersom it kan användas för att vilseleda allmänheten, skada anseende eller till och med påverka valresultat. Deepfakes är hyperrealistiska men helt fabricerade videor, bilder eller ljud som skapats med hjälp av AI och som ofta skildrar verkliga eller fiktiva personer i övertygande men falska scenarier. Vissa deepfakes kan vara lätta att upptäcka för ett tränat öga, men de är mycket svårare att identifiera för den som inte känner till tekniken eller är mindre tekniskt kunnig. Tyvärr är äldre personer särskilt sårbara för deepfake-bedrägerier, eftersom de ofta saknar den digitala kompetens som yngre generationer besitter.

Riktad övertalning och allmänhetens mottaglighet

AI:s förmåga att analysera stora mängder data har möjliggjort mikroinriktning, där specifika grupper eller individer får skräddarsytt innehåll som är utformat för att påverka deras övertygelser och handlingar. Detta väcker etiska frågor om utnyttjandet av personuppgifter för politisk eller ideologisk manipulation, som ofta sker utan de berörda personernas vetskap eller samtycke. Med tanke på hur effektiva dessa riktade övertalningstaktiker är, är itinte konstigt att finansanalytiker har kallat människors digitala beteendedata för "mer värdefulla än olja".

Det övergripande problemet? Avsaknaden av federala bestämmelser

I slutändan, förklarade Megan, hänger frågan på bristen på regler som styr användningen av AI och sociala medier i politiska kampanjer och val i USA och utanför. Utan tillräcklig tillsyn kan missbruk av AI-verktyg fortgå okontrollerat, vilket möjliggör skadliga metoder som äventyrar integriteten i demokratiska system. Dessutom går teknikutvecklingen - särskilt när det gäller att skapa falska nyheter - mycket snabbare än utvecklingen av policyer för att reglera it, vilket kräver betydande insatser för att överbrygga detta gap.

Sammantaget gav denna session ovärderliga insikter om den djupgående inverkan som AI och sociala medier har på demokratin. Missbruket av dessa tekniker undergräver valprocesserna, från spridningen av desinformation till hoten från deepfake-innehåll och riktad övertalning. Det akuta behovet av reglering är uppenbart; som Megan Shahi framhöll har den snabba utvecklingen av AI gått snabbare än policyutvecklingen, vilket lämnar kritiska luckor i tillsynen. För att ta itu med dessa etiska problem krävs snabba åtgärder och ett åtagande att främja en mer informerad och motståndskraftig väljarkår inför den digitala omvälvningen.

Är du intresserad av att lära dig mer om detta ämne? Hör av dig till Megan Shahi på LinkedIn!

GenAI möter affective computing. Våra nya relationer. -Sophie Kleber

I den här sessionen tog Sophie Kleber, UX Director på Google, upp en kritisk fråga: Hur kan vi utforma virtuella personligheter som respekterar människans unika egenskaper i stället för att bli digitala lismare som utnyttjar våra svagheter?

Presentationen kretsade kring konceptet med datorer som sociala aktörer och utforskade mänskliga svagheter i interaktionen med humanoidteknik, och belyste de etiska utmaningar och ansvarsområden som är förknippade med att skapa emotionellt intelligent AI.

Sophie Kleber på Emerce EDAY 2024

Säger du "snälla" och "tack" till ChatGPT?

Sophie Kleber menade att vi tenderar att fylla i luckorna och skapa relationer när tekniken efterliknar mänskligt beteende - en effekt som kallas "Eliza-effekten" och som är mer utbredd än vi tror. Ta ChatGPT, till exempel: Kommer du på dig själv med att säga "snälla" och "tack"? Du vet att itbara är en dator som vidarebefordrar information, inte en person på andra sidan. Ändå uppmanar den naturliga samtalstonen oss att följa samma sociala konventioner för artighet som vi skulle använda med en riktig person, som om vi är rädda för att vara oförskämda - även mot en maskin.

Inleder vi romantiska relationer med AI?

Är det i sig problematiskt att säga "snälla" och "tack" till ChatGPT? Inte nödvändigtvis, men it pekar på en större fråga - vår tendens att förmänskliga tekniken. Sophie förklarade att vi i ena änden av spektrumet har rent transaktionella, robotliknande interaktioner, till exempel med de tidiga versionerna av Google Assistant. I den andra änden ser vi mycket personliga och till och med intima relationer, som de relationer som vissa människor har med "Alexa", som it till och med behandlar som en familjemedlem. I mer extrema fall blir tekniken så förmänskligad att människor skapar romantiska band, som i filmen Her. Bortom fiktionen tar AI-program som "Replika" och "Xiaoice" detta ett steg längre, där Xiaoice har fått höra "Jag älskar dig" över 20 miljoner gånger. Bevisen är tydliga: Människor runt om i världen skapar känslomässiga, till och med romantiska, relationer med AI.

Mot bakgrund av detta uppmanar Sophie oss att inse att även om AI kan förbättra interaktioner bör it aldrig ses som en ersättning för genuina mänskliga relationer. Även om AI kan upptäcka mönster och generera svar med hjälp av fördefinierade algoritmer saknar it en nyanserad förståelse för mänskliga känslor och kan inte uppleva känslor och ha kognitiva förmågor, som medvetenhet och känslomässiga reaktioner, dvs. sentience. AI är med andra ord inte utformat för att tillgodose människans psykologiska behov, eftersom imitation inte är detsamma som empati och AI endast är kapabel till det förstnämnda.

Men vem bär ansvaret för att sätta gränser med AI?

Frågan kvarstår: Vem är ansvarig för att definiera gränserna i våra relationer med AI? Ska användarna själva vara ansvariga för att sätta gränser, eller faller detta ansvar på skaparna av sådan teknik? Sophie argumenterade för det senare och presenterade ett ramverk för etisk designpraxis i konversationsgränssnitt - ett ramverk som förbättrar mänsklig interaktion samtidigt som integriteten värnas och sårbarheter inte utnyttjas.

I takt med att AI alltmer genomsyrar olika aspekter av vårt dagliga liv är diskussioner som dessa mer relevanta än någonsin. Den här sessionen var särskilt värdefull för designers, utvecklare och alla som är intresserade av AI och interaktion mellan människa och dator, och gav insikter om hur man bygger virtuella personligheter som verkligen respekterar och återspeglar de människor som interagerar med dem. Framöver bör vi uppmuntra varandra att kritiskt utvärdera de etiska konsekvenserna av att bygga emotionellt intelligent och humanoid AI för att kunna göra framsteg och innovera i rätt riktning.

Vill du fördjupa dig ytterligare i ämnet? Kom i kontakt med Sophie Kleber på LinkedIn!

Porträtt av Leonie Becher Merli, 
Business Development Representative, Alumio, pekar åt höger med båda händerna - mot en vit cirkelrund bakgrund.

Få en gratis demo av Alumio

Om vår partner
Ta kontakt med oss

Vi hjälper gärna till och svarar på alla frågor du kan tänkas ha

Börja integrera med populära appar!

Inga föremål hittades.

Anslut med valfri anpassad slutpunkt

Börja integrera med populära appar!

Inga föremål hittades.

Anslut med

Inga föremål hittades.
Porträtt av Leonie Becher Merli, 
Business Development Representative, Alumio, pekar åt höger med båda händerna - mot en vit cirkelrund bakgrund.

Vill du se Alumio i aktion?