Alumio sichert sich eine strategische Investition von Lexar Partners zur Förderung von Wachstum und Innovation
Mehr erfahren
Ein weißer Pfeil, der nach rechts zeigt und anzeigt, wie man durch it auf weiteres Seitenmaterial zugreifen kann.
Veranstaltungen
6 Minuten lesen

Alumio bei Emerce EDAY 2024: Die Gefahren der KI erforschen

Geschrieben von
Carla Hetherington
Veröffentlicht am
9. Oktober 2024
Aktualisiert am
März 12, 2025

Emerce EDAY 2024 war eine dynamische Veranstaltung, die einige der einflussreichsten Stimmen aus den Bereichen Technologie, Medien, Marken und E-Commerce zusammenbrachte. Der Tag war vollgepackt mit aufschlussreichen Präsentationen und damit it unverzichtbare Lernmöglichkeit für Fachleute, die den neuesten Trends voraus sein wollen. Zwei Präsentationen, an denen wir teilnahmen, wiesen auf die potenziellen Gefahren der KI hin, oder vielmehr auf den Missbrauch von KI und die ethischen Bedenken, die sich it ergeben. Von der Bedrohung von Wahlen und Demokratie bis hin zur Förderung einseitiger virtueller Beziehungen - beide Präsentationen beleuchteten wichtige ethische Implikationen im Zusammenhang mit dem Einsatz von KI, auf die wir alle achten sollten. Lesen Sie weiter, um mehr zu erfahren!

Tech-tonische Verschiebungen: Wie digitale Wellen Wahlen und Demokratie beeinflussen. -Megan Shahi

Megan Shahi, die Direktorin für Technologiepolitik bei American Progress, untersuchte die Rolle der sozialen Medien und der KI-Technologie bei der Gestaltung der US-Wahl 2024.

Dies ist wichtiger denn je, da der Aufstieg der KI-Technologien die Schaffung ausgeklügelter Fälschungen und Verzerrungen ermöglicht und it immer schwieriger wird, zwischen dem zu unterscheiden, was echt ist und was nicht. In ihrer eingehenden Untersuchung untersuchte Megan, wie Mainstream-Social-Media-Plattformen, KI-generierte Inhalte, Verschwörungstheorien, Fehlinformationen und die fehlende Regulierung im Tech-Bereich die Meinung der Wähler beeinflussen - und in einigen Fällen sogar den Ausgang von Wahlen.

In der Präsentation wurden auch mehrere dringende Probleme hervorgehoben, wie z. B. die Notwendigkeit, in einer von KI und Deepfakes beherrschten Ära verlässliche Quellen verlässlicher Informationen zu finden, die Anfälligkeit der Öffentlichkeit für Manipulationen, die Gefahren gezielter Überzeugungsarbeit und das eklatante Fehlen von Bundesvorschriften für die Technologie in den Vereinigten Staaten.

Megan Shahi bei Emerce EDAY 2024

Die Gefahren von Fehlinformationen

Megan erklärte, wie KI-Tools missbraucht werden können, um schnell falsche oder irreführende Informationen in den sozialen Medien zu verbreiten, den öffentlichen Diskurs zu verzerren, Wählermeinungen zu manipulieren und demokratische Prozesse zu untergraben. Ethisch bedenklich ist der bewusste Einsatz von KI zur Täuschung und zur Beeinflussung von Entscheidungen durch gefälschte Inhalte und Verschwörungstheorien - etwas, das wir in diesem Wahljahr häufig erlebt haben.

Zuletzt berichtete The Guardian im September dieses Jahres über einen Fehlinformationsvorfall, der sich zu einem kritischen Zeitpunkt der Präsidentschaftswahlen 2024 ereignete: Nachdem sich Joe Biden aus dem Rennen um die Präsidentschaftskandidatur zurückgezogen hatte, verbreitete sich im Internet eine Fehlinformation mit Screenshots, in denen behauptet wurde, ein neuer Kandidat könne in neun Bundesstaaten nicht auf den Stimmzetteln eingetragen werden. Dies wurde auf Twitter, jetzt X, schnell millionenfach geteilt und führte zu Anfragen nach Faktenchecks für diese Beiträge, die schlichtweg falsch waren, da die Fristen für die Stimmabgabe noch nicht verstrichen waren und Kamala Harris noch genügend Zeit hatte, ihren Namen auf den Stimmzetteln eintragen zu lassen. Die Quelle der Fehlinformationen? Der KI-Chatbot von Twitter, Grok. Als Nutzer Gronk fragten, ob ein neuer Kandidat noch Zeit habe, auf den Stimmzetteln eingetragen zu werden, gab it die falsche Antwort.

Dies wurde schließlich korrigiert, und nun leitet der Chatbot die Nutzer bei Fragen zu den Wahlen auf eine andere Website, http://vote.gov. Trotz des relativ harmlosen Charakters dieses Fehlinformationsvorfalls, it die Menschen nicht davon abgehalten hätte, ihre Stimme abzugeben, weist it jedoch auf ein wichtigeres Problem hin - wie einfach it ist, über eine Social-Media-Plattform Fehlinformationen weit und breit zu verbreiten. Nicht nur das, Grok kann auch extrem lebensechte Bilder erzeugen, die zur Spaltung der Parteien beitragen und die Menschen in einem noch nie dagewesenen Maße in die Irre führen können.

Der Aufstieg der Deepfake-Technologie

Megan argumentierte, dass der Anstieg von KI-gesteuerten Deepfake-Inhalten eine ernsthafte Bedrohung darstellt, da it dazu verwendet werden können, die Öffentlichkeit in die Irre zu führen, den Ruf zu schädigen oder sogar Wahlergebnisse zu beeinflussen. Bei Deepfakes handelt es sich um hyperrealistische, aber vollständig gefälschte Videos, Bilder oder Audiodateien, die mithilfe von KI erstellt wurden und oft echte oder fiktive Personen in überzeugenden, aber falschen Szenarien zeigen. Während einige Deepfakes für ein geschultes Auge leicht zu erkennen sind, sind sie für diejenigen, die mit der Technologie nicht vertraut sind oder sich nicht so gut auskennen, viel schwieriger zu identifizieren. Leider sind ältere Menschen besonders anfällig für Deepfake-Betrügereien, da ihnen oft die digitale Kompetenz fehlt, über die jüngere Generationen verfügen.

Gezielte Überzeugungsarbeit und Anfälligkeit der Öffentlichkeit

Die Fähigkeit der KI, riesige Datenmengen zu analysieren, hat das Micro-Targeting ermöglicht, bei dem bestimmte Gruppen oder Einzelpersonen maßgeschneiderte Inhalte erhalten, um ihre Überzeugungen und Handlungen zu beeinflussen. Dies wirft ethische Bedenken hinsichtlich der Ausnutzung personenbezogener Daten für politische oder ideologische Manipulationen auf, die oft ohne das Wissen oder die Zustimmung der Betroffenen erfolgen. Angesichts der Wirksamkeit dieser gezielten Überzeugungstaktiken ist itkein Wunder, dass Finanzanalysten die digitalen Verhaltensdaten der Menschen als "wertvoller als Öl" bezeichnet haben.

Das übergreifende Problem? Das Fehlen von Bundesvorschriften

Letztlich, so Megan, hängt das Problem mit den fehlenden Vorschriften für den Einsatz von KI und Social-Media-Technologien in politischen Kampagnen und Wahlen in den USA und darüber hinaus zusammen. Ohne angemessene Aufsicht kann der Missbrauch von KI-Tools unkontrolliert fortbestehen und schädliche Praktiken ermöglichen, die die Integrität demokratischer Systeme gefährden. Darüber hinaus übersteigt die Geschwindigkeit, mit der sich die Technologie weiterentwickelt - insbesondere bei der Schaffung von Fake News - bei weitem die Entwicklung von Maßnahmen zu it Regulierung, so dass erhebliche Anstrengungen erforderlich sind, um diese Lücke zu schließen.

Insgesamt bot diese Sitzung unschätzbare Einblicke in die tiefgreifenden Auswirkungen von KI und sozialen Medien auf die Demokratie. Von der Verbreitung von Desinformationen bis hin zu den Gefahren, die von Deepfake-Inhalten und gezielter Überzeugungsarbeit ausgehen, untergräbt der Missbrauch dieser Technologien Wahlprozesse. Der dringende Bedarf an Regulierung ist offensichtlich. Wie Megan Shahi hervorgehoben hat, hat die rasche Weiterentwicklung der KI die Entwicklung der Politik überholt, was zu kritischen Lücken in der Aufsicht geführt hat. Um diese ethischen Bedenken auszuräumen, ist schnelles Handeln und ein Engagement für die Förderung einer besser informierten und widerstandsfähigeren Wählerschaft angesichts der digitalen Disruption erforderlich.

Möchten Sie mehr über dieses Thema erfahren? Melden Sie sich bei Megan Shahi auf LinkedIn!

GenAI trifft auf affektives Computing. Unsere neuen Beziehungen. -Sophie Kleber

In dieser Sitzung ging Sophie Kleber, UX Director bei Google, auf eine wichtige Frage ein: Wie können wir virtuelle Persönlichkeiten entwerfen, die die menschliche Einzigartigkeit respektieren, anstatt zu digitalen Kriechern zu werden, die unsere Schwächen ausnutzen?

Diese Präsentation drehte sich um das Konzept von Computern als soziale Akteure und untersuchte die menschlichen Schwächen bei der Interaktion mit humanoiden Technologien, wobei die ethischen Herausforderungen und Verantwortlichkeiten bei der Entwicklung emotional intelligenter KI hervorgehoben wurden.

Sophie Kleber bei Emerce EDAY 2024

Sagen Sie "bitte" und "danke" zu ChatGPT?

Sophie Kleber postulierte, dass wir dazu neigen, Lücken zu füllen und Beziehungen zu knüpfen, wenn die Technologie menschliches Verhalten nachahmt - ein Effekt, der als "Eliza-Effekt" bekannt ist und der weiter verbreitet ist, als uns bewusst ist. Nehmen Sie zum Beispiel ChatGPT: Ertappen Sie sich dabei, dass Sie "bitte" und "danke" sagen? Sie wissen, dass itnur um einen Computer handelt, der Informationen weitergibt, und nicht um einen Menschen auf der anderen Seite. Dennoch veranlasst uns sein natürlicher, gesprächiger Ton dazu, die gleichen sozialen Konventionen der Höflichkeit zu befolgen, die wir auch bei einer echten Person anwenden würden, als hätten wir Angst, unhöflich zu sein - selbst gegenüber einer Maschine.

Lassen wir uns auf romantische Beziehungen mit KI ein?

Ist es von Natur aus problematisch, ChatGPT "bitte" und "danke" zu sagen? Nicht unbedingt, aber it weist auf ein größeres Problem hin - unsere Tendenz, Technologie zu vermenschlichen. Sophie erklärte, dass es am einen Ende des Spektrums rein transaktionale, roboterähnliche Interaktionen gibt, wie z. B. bei den frühen Versionen von Google Assistant. Auf der anderen Seite gibt es hochgradig personalisierte und sogar intime Verbindungen, wie die Beziehungen, die manche Menschen mit Alexa" haben, die it sogar wie ein Familienmitglied behandeln. In extremeren Fällen wird die Technologie so vermenschlicht, dass Menschen romantische Bindungen eingehen, wie im Film Her" zu sehen. Jenseits der Fiktion gehen KI-Programme wie "Replika" und "Xiaoice" noch einen Schritt weiter: Xiaoice wurde über 20 Millionen Mal "Ich liebe dich" gesagt. Die Beweise sind eindeutig: Menschen auf der ganzen Welt bauen emotionale, sogar romantische Beziehungen zu KI auf.

Vor diesem Hintergrund fordert Sophie uns auf, zu erkennen, dass KI zwar Interaktionen verbessern kann, it niemals als Ersatz für echte menschliche Beziehungen angesehen werden sollte. KI kann zwar Muster erkennen und mit Hilfe vordefinierter Algorithmen Antworten erzeugen, doch fehlt it das differenzierte Verständnis menschlicher Emotionen und sie ist nicht in der Lage, Gefühle zu empfinden und kognitive Fähigkeiten wie Bewusstsein und emotionale Reaktionen, d. h. Empfindungsvermögen, zu besitzen. Mit anderen Worten: KI ist nicht darauf ausgelegt, die psychologischen Bedürfnisse des Menschen zu erfüllen, denn Nachahmung ist nicht dasselbe wie Empathie, und KI ist nur zu Ersterem fähig.

Aber wer trägt die Verantwortung für die Festlegung von Grenzen bei der KI?

Die Frage bleibt: Wer ist für die Festlegung der Grenzen in unseren Beziehungen zu KI verantwortlich? Sollten die Nutzer selbst dafür verantwortlich sein, Grenzen zu setzen, oder obliegt diese Verantwortung den Entwicklern dieser Technologie? Sophie plädierte für Letzteres und präsentierte einen Rahmen für ethische Designpraktiken bei Konversationsschnittstellen - einen Rahmen, der die menschliche Interaktion verbessert und gleichzeitig die Integrität schützt und die Ausnutzung von Schwachstellen vermeidet.

Da KI zunehmend verschiedene Aspekte unseres täglichen Lebens durchdringt, sind Diskussionen wie diese wichtiger denn je. Diese Sitzung war besonders wertvoll für Designer, Entwickler und alle, die sich für KI und Mensch-Computer-Interaktion interessieren. Sie bot Einblicke in die Entwicklung virtueller Persönlichkeiten, die die Menschen, die sich mit ihnen beschäftigen, wirklich respektieren und widerspiegeln. In Zukunft sollten wir uns gegenseitig ermutigen, die ethischen Implikationen der Entwicklung emotional intelligenter und humanoider KI kritisch zu bewerten, um Fortschritte zu erzielen und Innovationen in die richtige Richtung zu lenken.

Möchten Sie das Thema weiter vertiefen? Verbinden Sie sich mit Sophie Kleber auf LinkedIn!

Porträt von Leonie Becher Merli, 
Business Development Representative, Alumio, zeigt mit beiden Händen nach rechts - vor einem weißen, runden Hintergrund.

Holen Sie sich eine kostenlose demo der Alumio

um die Vorteile der Geschäftsautomatisierung zu erleben!
Über unseren Partner
Kontakt aufnehmen

Wir helfen Ihnen gerne weiter und beantworten alle Ihre Fragen

Beginn der Integration mit beliebten Apps!

Keine Artikel gefunden.

Verbindung mit einem beliebigen benutzerdefinierten Endpunkt

Beginn der Integration mit beliebten Apps!

Keine Artikel gefunden.

Verbinden Sie mit

Keine Artikel gefunden.
Porträt von Leonie Becher Merli, 
Business Development Representative, Alumio, zeigt mit beiden Händen nach rechts - vor einem weißen, runden Hintergrund.

Holen Sie sich eine kostenlose demo der Alumio