Alumio auf dem Emerce EDAY 2024: Erkundung der Gefahren von KI
Der Emerce EDAY 2024 war eine dynamische Veranstaltung, die einige der einflussreichsten Stimmen aus Technologie, Medien, Marken und E-Commerce zusammenbrachte. Der Tag war vollgepackt mit aufschlussreichen Präsentationen und war somit eine unverzichtbare Lernmöglichkeit für Fachleute, die den neuesten Trends immer einen Schritt voraus sein möchten. Insbesondere zwei Vorträge, an denen wir teilgenommen haben, wiesen auf die potenziellen Gefahren von KI, oder besser gesagt auf den Missbrauch von KI, und die ethischen Bedenken hin, die sich daraus ergeben. Von der Bedrohung von Wahlen und Demokratie bis hin zur Förderung einseitiger virtueller Beziehungen beleuchteten beide Vorträge wichtige ethische Implikationen im Zusammenhang mit dem Einsatz von KI, auf die wir alle achten sollten. Lesen Sie weiter, um mehr zu erfahren!
Technologische Veränderungen: Wie digitale Wellen Wahlen und Demokratie prägen. - Megan Shahi
Megan Shahi, Direktorin für Technologiepolitik bei American Progress, befasste sich mit der Rolle der sozialen Medien und der KI-Technologie bei der Gestaltung der US-Wahlen 2024.
Dies ist wichtiger denn je, da das Aufkommen von KI-Technologien die Schaffung ausgeklügelter Erfindungen und Verzerrungen ermöglicht, wodurch es immer schwieriger wird, zu unterscheiden, was real ist und was nicht. In ihrer eingehenden Untersuchung untersuchte Megan, wie Mainstream-Social-Media-Plattformen, KI-generierte Inhalte, Verschwörungstheorien, Fehlinformationen und die mangelnde Regulierung im Technologiebereich die Meinungen der Wähler — und in einigen Fällen sogar die Ergebnisse von Wahlen — prägen.
In der Präsentation wurden auch mehrere dringende Bedenken hervorgehoben, darunter die Notwendigkeit, zuverlässige Quellen für verlässliche Informationen in einer von KI und Deepfakes dominierten Zeit zu identifizieren, die Anfälligkeit der Öffentlichkeit für Manipulationen, die Gefahren gezielter Überredung und das eklatante Fehlen bundesstaatlicher Vorschriften für Technologie in den Vereinigten Staaten.
Die Gefahren von Fehlinformationen
Megan erklärte, wie KI-Tools missbraucht werden können, um schnell falsche oder irreführende Informationen in sozialen Medien zu verbreiten, den öffentlichen Diskurs zu verzerren, Wählermeinungen zu manipulieren und demokratische Prozesse zu untergraben. Das ethische Problem liegt im bewussten Einsatz von KI zur Täuschung und Beeinflussung von Entscheidungen mit erfundenen Inhalten und Verschwörungstheorien — etwas, das wir in diesem Wahljahr häufig erlebt haben.
Zuletzt, im September dieses Jahres, The Guardian berichtete über einen Vorfall mit Fehlinformationen, der sich zu einem kritischen Zeitpunkt der Präsidentschaftswahlen 2024 ereignete: Nachdem Joe Biden sich aus dem Präsidentschaftsrennen zurückgezogen hatte, verbreiteten sich im Internet Fehlinformationen mit Screenshots, in denen behauptet wurde, in neun Bundesstaaten könne kein neuer Kandidat zu den Wahlzetteln hinzugefügt werden. Dies sammelte schnell Millionen von Views auf Twitter, jetzt X, und führte zu Anfragen nach einem Faktencheck für diese Beiträge, die einfach falsch waren, da die Wahlfristen noch nicht abgelaufen waren und Kamala Harris immer noch genügend Zeit hatte, um ihren Namen auf die Stimmzettel setzen zu lassen. Die Quelle der Fehlinformationen? Der KI-Chatbot von Twitter, Grok. Als Nutzer Gronk fragten, ob ein neuer Kandidat noch Zeit habe, um auf die Stimmzettel gesetzt zu werden, wurde die falsche Antwort gegeben.
Dies wurde schließlich korrigiert, und jetzt leitet der Chatbot die Benutzer auf eine andere Website weiter. http://vote.gov, wenn sie nach Wahlen gefragt werden. Trotz der relativ harmlosen Natur dieses Fehlinformationsvorfalls, da er die Menschen nicht daran gehindert hätte, ihre Stimme abzugeben, ging es um ein wichtigeres Problem: wie einfach es ist, Fehlinformationen über eine Social-Media-Plattform weit und breit zu verbreiten. Nicht nur das, Grok kann auch extrem lebensechte Bilder erzeugen, die zu parteipolitischen Spaltungen beitragen und Menschen in beispiellosem Maße in die Irre führen können.
Der Aufstieg der Deepfake-Technologie
Die Zunahme von KI-gestützten Deepfake-Inhalten stellt eine ernsthafte Bedrohung dar, da sie dazu genutzt werden können, die Öffentlichkeit in die Irre zu führen, den Ruf zu schädigen oder sogar Wahlergebnisse zu beeinflussen. Deepfakes sind hyperrealistische, aber vollständig erfundene Videos, Bilder oder Audiodateien, die mithilfe von KI erstellt wurden und oft reale oder fiktive Personen in überzeugenden, aber falschen Szenarien darstellen. Während einige Deepfakes für ein geschultes Auge leicht zu erkennen sind, sind sie für diejenigen, die mit der Technologie nicht vertraut oder weniger technisch versiert sind, viel schwieriger zu identifizieren. Leider sind ältere Menschen besonders anfällig für Deepfake-Betrügereien, da ihnen oft die digitale Kompetenz fehlt, die jüngere Generationen besitzen.
Gezielte Überzeugung und öffentliche Sensibilität
Die Fähigkeit der KI, riesige Datenmengen zu analysieren, hat Mikro-Targeting ermöglicht, bei dem bestimmte Gruppen oder Einzelpersonen maßgeschneiderte Inhalte erhalten, die darauf ausgelegt sind, ihre Überzeugungen und Handlungen zu beeinflussen. Dies wirft ethische Bedenken hinsichtlich der Ausbeutung personenbezogener Daten für politische oder ideologische Manipulationen auf, die häufig ohne das Wissen oder die Zustimmung der Betroffenen geschehen. Angesichts der Effektivität dieser gezielten Überzeugungstaktiken ist es kein Wunder, dass Finanzanalysten die digitalen Verhaltensdaten der Menschen als „wertvoller als Öl.“
Das übergreifende Problem? Das Fehlen von Bundesvorschriften
Letztlich hängt das Problem vom Fehlen von Vorschriften für den Einsatz von KI- und Social-Media-Technologien in politischen Kampagnen und Wahlen in den USA und darüber hinaus ab. Ohne angemessene Aufsicht kann der Missbrauch von KI-Tools ungebremst andauern und schädliche Praktiken ermöglichen, die die Integrität demokratischer Systeme gefährden. Darüber hinaus übertrifft das Tempo, mit dem sich die Technologie weiterentwickelt — insbesondere bei der Erstellung gefälschter Nachrichten — die Entwicklung von Regulierungsmaßnahmen bei weitem, sodass erhebliche Anstrengungen erforderlich sind, um diese Lücke zu schließen.
Insgesamt bot diese Sitzung unschätzbare Einblicke in die tiefgreifenden Auswirkungen von KI und sozialen Medien auf die Demokratie. Von der Verbreitung von Desinformation bis hin zu den Bedrohungen durch Deepfake-Inhalte und gezielte Überzeugungsarbeit — der Missbrauch dieser Technologien untergräbt Wahlprozesse. Der dringende Regulierungsbedarf liegt auf der Hand. Wie Megan Shahi betonte, hat die rasche Weiterentwicklung der KI die politische Entwicklung überholt und kritische Aufsichtslücken hinterlassen. Die Bewältigung dieser ethischen Bedenken erfordert schnelles Handeln und die Verpflichtung, eine besser informierte und widerstandsfähigere Wählerschaft angesichts der digitalen Disruption zu fördern.
Interessiert daran, mehr über dieses Thema zu erfahren? Kontaktieren Sie Megan Shahi auf LinkedIn!
GenAI trifft auf Affective Computing. Unsere neuen Beziehungen. -Sophie Kleber
In dieser Sitzung befasste sich Sophie Kleber, UX Director bei Google, mit einer kritischen Frage: Wie können wir virtuelle Persönlichkeiten entwerfen, die die menschliche Einzigartigkeit respektieren, anstatt zu digitalen Sykophanten zu werden, die unsere Schwachstellen ausnutzen?
Diese Präsentation drehte sich um das Konzept von Computern als sozialen Akteuren und untersuchte menschliche Schwächen bei der Interaktion mit humanoiden Technologien. Dabei wurden die ethischen Herausforderungen und Verantwortlichkeiten hervorgehoben, die mit der Entwicklung emotional intelligenter KI verbunden sind.
Sagt ihr „Bitte“ und „Danke“ zu ChatGPT?
Sophie Kleber postulierte, dass wir dazu neigen, die Lücken zu schließen und Beziehungen aufzubauen, wenn Technologie menschliches Verhalten nachahmt — ein Effekt, der als „Eliza-Effekt“ bekannt ist und allgegenwärtiger ist, als wir denken. Nehmen wir zum Beispiel ChatGPT: Sagen Sie manchmal „bitte“ und „danke“? Du weißt, es ist nur ein Computer, der Informationen weiterleitet, keine Person auf der anderen Seite. Sein natürlicher, gesprächiger Ton veranlasst uns jedoch, den gleichen sozialen Konventionen der Höflichkeit zu folgen, die wir gegenüber einer realen Person anwenden würden, als ob wir Angst davor hätten, unhöflich zu sein — selbst gegenüber einer Maschine.
Gehen wir romantische Beziehungen mit KI ein?
Ist es von Natur aus problematisch, ChatGPT „Bitte“ und „Danke“ zu sagen? Nicht unbedingt, aber es weist auf ein größeres Problem hin — unsere Tendenz, Technologie zu humanisieren. An einem Ende des Spektrums haben wir rein transaktionale, roboterähnliche Interaktionen, wie zum Beispiel mit den frühen Versionen von Google Assistant. Auf der anderen Seite sehen wir hochgradig personalisierte und sogar intime Verbindungen, wie die Beziehungen, die manche Menschen zu „Alexa“ haben und sie sogar als Familienmitglied behandeln. In extremeren Fällen wird die Technologie so humanisiert, dass Menschen romantische Bindungen eingehen, wie im Film zu sehen ist Ihr. Neben der Fiktion, erklärte Sophie, gehen KI-Programme wie „Replika“ und „Xiaoice“ noch einen Schritt weiter. Xiaoice wurde über 20 Millionen Mal „Ich liebe dich“ gesagt. Die Beweise sind eindeutig: Menschen auf der ganzen Welt bauen emotionale, sogar romantische Beziehungen zu KI auf.
Angesichts dessen ist es wichtig zu erkennen, dass KI zwar Interaktionen verbessern kann, aber niemals als Ersatz für echte menschliche Beziehungen angesehen werden sollte. Obwohl KI mithilfe vordefinierter Algorithmen Muster erkennen und Reaktionen generieren kann, fehlt ihr das nuancierte Verständnis menschlicher Emotionen und sie ist nicht in der Lage, Gefühle zu erleben und kognitive Fähigkeiten wie Bewusstsein und emotionale Reaktionen, also Empfindungsfähigkeit, zu besitzen. Mit anderen Worten, KI ist nicht darauf ausgelegt, menschliche psychologische Bedürfnisse zu erfüllen, da Mimikry nicht mit Empathie gleichzusetzen ist und KI nur zu ersterem fähig ist.
Aber wer trägt die Verantwortung dafür, mit KI Grenzen zu setzen?
Die Frage bleibt: Wer ist dafür verantwortlich, die Grenzen in unseren Beziehungen zur KI zu definieren? Sollten die Nutzer selbst für die Festlegung von Grenzwerten verantwortlich sein, oder liegt diese Verantwortung bei den Entwicklern solcher Technologien? Sophie sprach sich für Letzteres aus und präsentierte einen Rahmen für ethische Gestaltungspraktiken in Konversationsschnittstellen — einen Rahmen, der die menschliche Interaktion verbessert und gleichzeitig die Integrität schützt und die Ausnutzung von Sicherheitslücken verhindert.
Da KI zunehmend verschiedene Aspekte unseres täglichen Lebens durchdringt, sind Diskussionen wie diese relevanter denn je. Diese Sitzung war besonders wertvoll für Designer, Entwickler und alle, die sich für KI und Mensch-Computer-Interaktion interessieren. Sie bot Einblicke, wie virtuelle Persönlichkeiten geschaffen werden können, die die Menschen, die mit ihnen interagieren, wirklich respektieren und widerspiegeln. In Zukunft sollten wir uns gegenseitig ermutigen, die ethischen Implikationen der Entwicklung emotional intelligenter und humanoider KI kritisch zu bewerten, um Fortschritte zu erzielen und Innovationen in die richtige Richtung zu entwickeln.
Möchten Sie sich weiter mit dem Thema befassen? Verbinde dich mit Sophie Kleber auf LinkedIn!