Rankad #1 Bästa molntjänsteleverantör i Nederländerna 2024!
Events
6 min läsning

Alumio på Emerge EDAY 2024: Utforska farorna med AI

__wf_reserverad_ärva__wf_reserverad_ärva
__wf_reserverad_ärva
Skrivet av
Carla Hetherington
Publicerad den
October 9, 2024
Updated on
October 11, 2024
__wf_reserverad_ärva__wf_reserverad_ärva__wf_reserverad_ärva__wf_reserverad_ärva
__wf_reserverad_ärva

Emerce EDAY 2024 var en dynamisk händelse som samlade några av de mest inflytelserika rösterna inom teknik, media, varumärken och e-handel. Dagen var full av insiktsfulla presentationer, vilket gör det till en oförglömlig inlärningsmöjlighet för proffs som är angelägna om att hålla sig före de senaste trenderna. Två presentationer som vi deltog i pekade särskilt på de potentiella farorna med AI, eller snarare missbruk av AI, och de etiska bekymmer som uppstår från det. Från hotande val och demokrati till att främja ensidiga virtuella relationer, båda presentationerna lyfte fram avgörande etiska konsekvenser kring användningen av AI som vi alla bör se upp för. Fortsätt läsa för att ta reda på mer!

Tekniskt toniska förändringar: Hur digitala vågor formar val och demokrati. - Megan Shahi

Megan Shahi, chef för teknikpolitik på American Progress, fördjupade sig i sociala mediers och AI-teknikens roll för att forma det amerikanska valet 2024.

Detta är mer kritiskt än någonsin, eftersom ökningen av AI-teknik möjliggör skapandet av sofistikerade fabrikationer och snedvridningar, vilket gör det allt svårare att skilja mellan vad som är verkligt och vad som inte är. I sin djupgående utforskning undersökte Megan hur vanliga sociala medieplattformar, AI-genererat innehåll, konspirationsteorier, felinformation och bristen på reglering inom teknikområdet formar väljarnas åsikter - och i vissa fall till och med resultaten av val.

Presentationen lyfte också fram flera pressande bekymmer, såsom behovet av att identifiera tillförlitliga källor till auktoritativ information i en era dominerad av AI och deepfakes, allmänhetens mottaglighet för manipulation, farorna med riktad övertalning, och den uppenbara frånvaron av federala regler som styr teknik i USA.

Megan Shahi på Emerge EDAY 2024

Farorna med felinformation

Megan förklarade hur AI-verktyg kan missbrukas för att snabbt sprida falsk eller vilseledande information över sociala medier, snedvrida den offentliga diskursen, manipulera väljarnas åsikter och undergräva demokratiska processer. Den etiska oron ligger i den avsiktliga användningen av AI för att lura, påverka beslut med fabricerat innehåll och konspirationsteorier - något vi ofta har bevittnat under detta valår.

Senast, i september i år, Vaktmästaren rapporterade om en felinformationshändelse som ägde rum vid ett kritiskt ögonblick av presidentvalet 2024: Efter att Joe Biden drog sig ur presidentvalet började felinformation spridas online med skärmdumpar som hävdade att en ny kandidat inte kunde läggas till omröstningar i nio stater. Detta samlade snabbt miljontals visningar på Twitter, nu X, och föranledde faktakontrollförfrågningar för dessa inlägg, vilket helt enkelt var fel, eftersom omröstningsfristerna inte hade passerat, och Kamala Harris hade fortfarande gott om tid att få sitt namn lagt till i omröstningarna. Källan till felinformationen? Twitters AI-chatbot, Grok. När användare frågade Gronk om en ny kandidat fortfarande hade tid att läggas till i omröstningarna gav det felaktigt svar.

Detta korrigerades så småningom, och nu dirigerar chatboten användare till en annan webbplats, http://vote.govPå frågan om val. Trots den relativt ofarliga karaktären av denna felinformationshändelse, med tanke på att den inte skulle ha hindrat människor från att rösta, talade den om en mer betydande fråga - hur lätt det är att sprida felinformation långt och brett med hjälp av en social medieplattform. Inte bara det, men Grok kan också generera extremt livliknande bilder som bidrar till partisanklyftor och kan vilseleda människor i en aldrig tidigare skådad grad.

Ökningen av deepfake-teknik

Ökningen av AI-drivet deepfake-innehåll utgör ett allvarligt hot, eftersom det kan användas för att vilseleda allmänheten, skada rykte eller till och med påverka valresultat. Deepfakes är hyperrealistiska men ändå helt tillverkade videor, bilder eller ljud skapade med AI, som ofta visar riktiga eller fiktiva människor i övertygande men falska scenarier. Medan vissa deepfakes kan vara lätta för ett tränat öga att upptäcka, är de mycket svårare att identifiera för dem som inte känner till tekniken eller mindre tekniskt kunniga. Tyvärr, äldre individer är särskilt utsatta för deepfake-bedrägerier, eftersom de ofta saknar den digitala läskunnighet som yngre generationer har.

Målinriktad övertalning och allmänhetens mottaglighet

AI:s förmåga att analysera stora mängder data har möjliggjort mikroinriktning, där specifika grupper eller individer får skräddarsytt innehåll utformat för att påverka deras övertygelser och handlingar. Detta väcker etiska farhågor om utnyttjande av personuppgifter för politisk eller ideologisk manipulation, som ofta sker utan kännedom eller samtycke från de drabbade. Med tanke på effektiviteten i dessa riktade övertalningstaktiker är det inte konstigt att finansanalytiker har hänvisat till människors digitala beteendedata som ”Värdigare än olja”

Det övergripande problemet? Bristen på federala regler

I slutändan beror frågan på bristen på regler som reglerar användningen av AI och sociala medietekniker i politiska kampanjer och val i USA och utanför. Utan adekvat tillsyn kan missbruk av AI-verktyg kvarstå okontrollerat, vilket möjliggör skadliga metoder som äventyrar integriteten hos demokratiska system. Dessutom överskrider den takt med vilken tekniken utvecklas - särskilt när det gäller att skapa falska nyheter - långt utvecklingen av policyer för att reglera den, vilket kräver betydande ansträngningar för att överbrygga denna klyfta.

Sammantaget erbjöd denna session ovärderliga insikter om den djupa inverkan AI och sociala medier har på demokratin. Från spridningen av desinformation till hoten från deepfake innehåll och riktad övertalning undergräver missbruk av denna teknik valprocesser. Det brådskande behovet av reglering är uppenbart; som Megan Shahi betonade har den snabba utvecklingen av AI överträffat policyutvecklingen och lämnat kritiska luckor i tillsynen. Att ta itu med dessa etiska problem kräver snabba åtgärder och ett åtagande att främja en mer informerad och motståndskraftig väljarkår inför digitala störningar.

Intresserad av att lära dig mer om detta ämne? Nå ut till Megan Shahi på LinkedIn!

GenAI möter affektiv databehandling. Våra nya relationer. -Sophie Kleber

I den här sessionen tog Sophie Kleber, UX-chef på Google, upp en kritisk fråga: Hur kan vi designa virtuella personligheter som respekterar mänsklig unikhet snarare än att bli digitala sykofanter som utnyttjar våra sårbarheter?

Denna presentation kretsade kring begreppet datorer som sociala aktörer och utforskade mänskliga svagheter när de interagerar med humanoidteknik, och lyfte fram de etiska utmaningarna och ansvaret som är involverade i att skapa känslomässigt intelligent AI.

Sophie Kleber på Emerge EDAY 2024

Säger du ”snälla” och ”tack” till ChatGPT?

Sophie Kleber postulerade att vi tenderar att fylla i luckorna och bilda relationer när teknik efterliknar mänskligt beteende - en effekt som kallas ”Elizaeffekten”, som är mer genomgripande än vi inser. Ta ChatGPT, till exempel: tycker du att du säger ”snälla” och ”tack”? Du vet att det bara är en dator som vidarebefordrar information, inte en person på andra sidan. Ändå uppmanar dess naturliga samtalston oss att följa samma sociala konventioner av artighet som vi skulle använda med en riktig person som om vi är rädda för att vara oförskämda - även mot en maskin.

Engagerar vi romantiska relationer med AI?

Är det problematiskt att säga ”snälla” och ”tack” till ChatGPT? Inte nödvändigtvis, men det pekar på en större fråga - vår tendens att humanisera teknik. I ena änden av spektrumet har vi rent transaktionella, robotliknande interaktioner, till exempel med de tidiga versionerna av Google Assistant. Å andra sidan ser vi mycket personliga och till och med intima förbindelser, som de relationer som vissa människor har med ”Alexa”, till och med behandlar det som en familjemedlem. I mer extrema fall blir tekniken så humaniserad att människor bildar romantiska anknytningar, som ses i filmen Hennes. Utöver fiktion, förklarade Sophie, tar AI-program som ”Replika” och ”Xiaoice” detta ett steg längre, med Xiaoice som får höra ”Jag älskar dig” över 20 miljoner gånger. Beviset är tydliga: Människor runt om i världen bildar känslomässiga, till och med romantiska, relationer med AI.

Mot bakgrund av detta är det avgörande att inse att även om AI kan förbättra interaktioner, bör det aldrig ses som en ersättning för äkta mänskliga relationer. Även om AI kan upptäcka mönster och generera svar med hjälp av fördefinierade algoritmer, saknar den den nyanserade förståelsen för mänskliga känslor och kan inte uppleva känslor och ha kognitiva förmågor, såsom medvetenhet och känslomässiga reaktioner, dvs känsla. Med andra ord är AI inte utformad för att möta mänskliga psykologiska behov eftersom mimik inte är detsamma som empati, och AI är bara kapabel till det förra.

Men vem bär ansvaret för att sätta gränser med AI?

Frågan kvarstår: Vem är ansvarig för att definiera gränserna i våra relationer med AI? Bör användarna själva vara ansvariga för att sätta gränser, eller faller detta ansvar på skaparna av sådan teknik? Sophie argumenterade för det senare och presenterade ett ramverk för etisk designpraxis i konversationsgränssnitt - en som förbättrar mänsklig interaktion samtidigt som integriteten skyddas och undviks utnyttjande av sårbarheter.

Eftersom AI i allt högre grad genomsyrar olika aspekter av vårt dagliga liv är diskussioner som dessa mer relevanta än någonsin. Denna session var särskilt värdefull för designers, utvecklare, och alla som är intresserade av AI och interaktion mellan människa och dator, och erbjuder insikter om hur man bygger virtuella personligheter som verkligen respekterar och återspeglar de människor som engagerar sig med dem. Framöver bör vi uppmuntra varandra att kritiskt utvärdera de etiska konsekvenserna av att bygga känslomässigt intelligent och humanoid AI för att göra framsteg och innovera i rätt riktning.

Vill du fördjupa ämnet ytterligare? Anslut till Sophie Kleber på LinkedIn!

Portrait of Leonie Becher Merli, 
Business Development Representative, Alumio, point to the right with both hands -  within a white circular background.

Get a free demo of the Alumio platform

to experience the business automation benefits!
Get in touch

Vi hjälper gärna till och svarar på alla frågor du kan ha

About our partner

Start integrating with popular apps!

No items found.

Connect with any custom endpoint

Start integrating with popular apps!

No items found.

Connect with

No items found.
Portrait of Leonie Becher Merli, 
Business Development Representative, Alumio, point to the right with both hands -  within a white circular background.

Get a free demo of the Alumio platform

to experience the business automation benefits!