Alumio à l'Emerce EDAY 2024 : Exploration des dangers de l'IA
L'Emerge EDAY 2024 a été un événement dynamique, réunissant certaines des voix les plus influentes des secteurs de la technologie, des médias, des marques et du commerce électronique. La journée a été riche en présentations pertinentes, ce qui en a fait une opportunité d'apprentissage incontournable pour les professionnels désireux de rester à l'affût des dernières tendances. Deux présentations auxquelles nous avons assisté ont notamment mis en lumière les dangers potentiels de l'IA, ou plutôt son utilisation abusive, et les préoccupations éthiques qui en découlent. Qu'il s'agisse de menacer les élections et la démocratie ou de favoriser des relations virtuelles unilatérales, les deux présentations ont mis en lumière les implications éthiques cruciales liées à l'utilisation de l'IA, auxquelles nous devons tous faire attention. Continuez à lire pour en savoir plus !
Changements technologiques : comment les ondes numériques façonnent les élections et la démocratie. - Megan Shahi
Megan Shahi, directrice de la politique technologique chez American Progress, s'est penchée sur le rôle des médias sociaux et de la technologie de l'IA dans l'organisation des élections américaines de 2024.
Cela est plus essentiel que jamais, car l'essor des technologies d'IA permet de créer des fabrications et des distorsions sophistiquées, ce qui rend de plus en plus difficile la distinction entre ce qui est réel et ce qui ne l'est pas. Au cours de son exploration approfondie, Megan a examiné comment les plateformes de médias sociaux traditionnels, le contenu généré par l'IA, les théories du complot, la désinformation et l'absence de réglementation dans l'espace technologique façonnent l'opinion des électeurs et, dans certains cas, même les résultats des élections.
La présentation a également mis en lumière plusieurs préoccupations pressantes, telles que la nécessité d'identifier des sources fiables d'informations faisant autorité à une époque dominée par l'IA et les deepfakes, la susceptibilité du public à la manipulation, les dangers de la persuasion ciblée et l'absence flagrante de réglementations fédérales régissant la technologie aux États-Unis.
Les dangers de la désinformation
Megan a expliqué comment les outils d'IA peuvent être utilisés à mauvais escient pour diffuser rapidement des informations fausses ou trompeuses sur les réseaux sociaux, fausser le discours public, manipuler les opinions des électeurs et saper les processus démocratiques. La préoccupation éthique réside dans l'utilisation délibérée de l'IA pour tromper et influencer les décisions au moyen de contenus fabriqués de toutes pièces et de théories du complot, ce dont nous avons été fréquemment témoins au cours de cette année électorale.
Tout récemment, en septembre de cette année, Le Gardien a fait état d'un incident de désinformation survenu à un moment critique de l'élection présidentielle de 2024 : après le retrait de Joe Biden de la course à la présidentielle, de la désinformation a commencé à se répandre en ligne avec des captures d'écran affirmant qu'un nouveau candidat ne pouvait pas être ajouté aux bulletins de vote dans neuf États. Cela a rapidement attiré des millions de vues sur Twitter, désormais X, et a suscité des demandes de vérification des faits pour ces publications, ce qui était tout simplement faux, car les délais de vote n'étaient pas dépassés et Kamala Harris avait encore tout le temps de faire ajouter son nom aux bulletins de vote. La source de la désinformation ? Le chatbot IA de Twitter, Grok. Lorsque les utilisateurs ont demandé à Gronk si un nouveau candidat avait encore le temps d'être ajouté aux bulletins de vote, il a donné la mauvaise réponse.
Cela a finalement été corrigé, et maintenant le chatbot dirige les utilisateurs vers un autre site Web, http://vote.gov, lorsqu'on l'a interrogé sur les élections. Cependant, malgré la nature relativement anodine de cet incident de désinformation, étant donné qu'il n'aurait pas empêché les gens de voter, il a abordé un problème plus important : la facilité avec laquelle il est possible de diffuser de la désinformation à grande échelle à l'aide d'une plateforme de médias sociaux. De plus, Grok peut également générer des images extrêmement réalistes qui contribuent aux divisions partisanes et peuvent induire les gens en erreur à un degré sans précédent.
L'essor de la technologie deepfake
L'essor du contenu deepfake piloté par l'IA constitue une grave menace, car il peut être utilisé pour induire le public en erreur, porter atteinte à la réputation ou même influencer les résultats des élections. Les deepfakes sont des vidéos, des images ou des sons hyperréalistes mais entièrement fabriqués à l'aide de l'IA, représentant souvent des personnes réelles ou fictives dans des scénarios convaincants mais faux. Bien que certains deepfakes soient faciles à détecter pour un œil averti, ils sont beaucoup plus difficiles à identifier pour ceux qui ne sont pas familiarisés avec la technologie ou les moins avertis. Malheureusement, les personnes âgées sont particulièrement vulnérables aux escroqueries liées au deepfake, car elles n'ont souvent pas les mêmes connaissances numériques que les jeunes générations.
Persuasion ciblée et sensibilité du public
La capacité de l'IA à analyser de grandes quantités de données a permis le micro-ciblage, dans le cadre duquel des groupes ou des individus spécifiques reçoivent un contenu personnalisé conçu pour influencer leurs convictions et leurs actions. Cela soulève des préoccupations éthiques quant à l'exploitation des données personnelles à des fins de manipulation politique ou idéologique, souvent à l'insu des personnes concernées ou sans leur consentement. Compte tenu de l'efficacité de ces tactiques de persuasion ciblées, il n'est pas étonnant que les analystes financiers aient qualifié les données comportementales numériques des personnes de « plus précieux que le pétrole. »
Le problème principal ? L'absence de réglementation fédérale
En fin de compte, le problème réside dans l'absence de réglementation régissant l'utilisation de l'IA et des technologies des médias sociaux dans les campagnes politiques et les élections aux États-Unis et au-delà. Sans surveillance adéquate, l'utilisation abusive des outils d'IA peut persister de manière incontrôlée, donnant lieu à des pratiques néfastes qui mettent en danger l'intégrité des systèmes démocratiques. De plus, le rythme auquel la technologie évolue, notamment en ce qui concerne la création de fausses informations, dépasse de loin le développement des politiques visant à la réglementer, ce qui nécessite des efforts importants pour combler cet écart.
Dans l'ensemble, cette session a fourni des informations précieuses sur l'impact profond de l'IA et des médias sociaux sur la démocratie. Qu'il s'agisse de la diffusion de désinformations ou des menaces posées par le contenu deepfake ou de la persuasion ciblée, l'utilisation abusive de ces technologies nuit aux processus électoraux. Le besoin urgent de réglementation est évident ; comme l'a souligné Megan Shahi, les progrès rapides de l'IA ont dépassé l'élaboration des politiques, laissant des lacunes critiques en matière de surveillance. Pour répondre à ces préoccupations éthiques, il faut agir rapidement et s'engager à favoriser un électorat plus informé et résilient face à la disruption numérique.
Vous souhaitez en savoir plus sur ce sujet ? Contactez Megan Shahi sur LinkedIn !
GenAI rencontre l'informatique affective. Nos nouvelles relations. -Sophie Kléber
Au cours de cette session, Sophie Kleber, directrice de l'expérience utilisateur chez Google, a abordé une question cruciale : comment pouvons-nous concevoir des personnalités virtuelles qui respectent le caractère unique de l'être humain au lieu de devenir des sycophants numériques qui exploitent nos vulnérabilités ?
Cette présentation a porté sur le concept des ordinateurs en tant qu'acteurs sociaux et a exploré les faiblesses humaines lors de l'interaction avec les technologies humanoïdes, en soulignant les défis éthiques et les responsabilités liés à la création d'une IA émotionnellement intelligente.
Dites-vous « s'il vous plaît » et « merci » à ChatGPT ?
Sophie Kleber a postulé que nous avons tendance à combler les lacunes et à nouer des relations lorsque la technologie imite le comportement humain, un effet connu sous le nom d' « effet Eliza », qui est plus omniprésent que nous ne le pensons. Prenez ChatGPT, par exemple : vous arrive-t-il de dire « s'il vous plaît » et « merci » ? Vous savez que c'est juste un ordinateur qui transmet des informations, pas une personne de l'autre côté. Pourtant, son ton naturel et conversationnel nous incite à suivre les mêmes conventions sociales de politesse que nous utiliserions avec une vraie personne comme si nous avions peur d'être grossiers, même à l'égard d'une machine.
Entretenons-nous des relations amoureuses avec l'IA ?
Est-ce que dire « s'il vous plaît » et « merci » à ChatGPT est intrinsèquement problématique ? Pas nécessairement, mais cela met en lumière un problème plus vaste : notre tendance à humaniser la technologie. À une extrémité du spectre, nous avons des interactions purement transactionnelles, semblables à des robots, comme avec les premières versions de Google Assistant. D'autre part, nous observons des liens très personnalisés et même intimes, comme les relations que certaines personnes entretiennent avec « Alexa », la traitant même comme un membre de la famille. Dans les cas les plus extrêmes, la technologie devient tellement humanisée que les gens nouent des attachements romantiques, comme le montre le film Elle. Au-delà de la fiction, explique Sophie, les programmes d'IA tels que « Replika » et « Xiaoice » vont encore plus loin, Xiaoice s'étant fait dire « je t'aime » plus de 20 millions de fois. Les preuves sont claires : les gens du monde entier nouent des relations émotionnelles, voire amoureuses, avec l'IA.
Face à cela, il est essentiel de reconnaître que si l'IA peut améliorer les interactions, elle ne doit jamais être considérée comme un substitut à de véritables relations humaines. Bien que l'IA puisse détecter des modèles et générer des réponses à l'aide d'algorithmes prédéfinis, elle n'a pas la compréhension nuancée des émotions humaines et est incapable d'éprouver des sentiments et de posséder des capacités cognitives, telles que la conscience et les réactions émotionnelles, c'est-à-dire la sensibilité. En d'autres termes, l'IA n'est pas conçue pour répondre aux besoins psychologiques humains puisque le mimétisme n'est pas la même chose que l'empathie, et l'IA n'est capable que de la première.
Mais qui a la responsabilité de fixer des limites avec l'IA ?
La question demeure : qui est chargé de définir les limites de nos relations avec l'IA ? Les utilisateurs doivent-ils être eux-mêmes responsables de la fixation des limites, ou cette responsabilité incombe-t-elle aux créateurs de ces technologies ? Sophie a plaidé en faveur de cette dernière solution en présentant un cadre pour des pratiques de conception éthiques dans les interfaces conversationnelles, un cadre qui améliore l'interaction humaine tout en préservant l'intégrité et en évitant l'exploitation des vulnérabilités.
Alors que l'IA imprègne de plus en plus les différents aspects de notre vie quotidienne, de telles discussions sont plus pertinentes que jamais. Cette session a été particulièrement utile pour les concepteurs, les développeurs et toute personne intéressée par l'IA et l'interaction homme-machine, car elle a permis de découvrir comment créer des personnalités virtuelles qui respectent et reflètent véritablement les personnes qui interagissent avec eux. À l'avenir, nous devrions nous encourager mutuellement à évaluer de manière critique les implications éthiques de la création d'une IA humanoïde et émotionnellement intelligente afin de progresser et d'innover dans la bonne direction.
Vous souhaitez approfondir le sujet ? Communiquez avec Sophie Kleber sur LinkedIn !