Alumio obtient un investissement stratégique de Lexar Partners pour stimuler la croissance et l'innovation
En savoir plus
Une flèche blanche pointant vers la droite, une représentation visuelle de la manière d'accéder à d'autres éléments de la page en cliquant it.
Evénements
6 minutes de lecture

Alumio à Emerce EDAY 2024 : Explorer les dangers de l'IA

Rédigé par
Carla Hetherington
Publié le
9 octobre 2024
Mise à jour le
12 mars 2025

Emerce EDAY 2024 a été un événement dynamique, réunissant certaines des voix les plus influentes de la technologie, des médias, des marques et du commerce électronique. La journée a été riche en présentations perspicaces, it qui en fait une occasion d'apprentissage incontournable pour les professionnels désireux de rester à la pointe des dernières tendances. Deux présentations auxquelles nous avons assisté, en particulier, ont mis en évidence les dangers potentiels de l'IA, ou plutôt la mauvaise utilisation de l'IA, et les préoccupations éthiques qui it découlent. Qu'il s'agisse de menacer les élections et la démocratie ou de favoriser des relations virtuelles unilatérales, les deux présentations ont mis en évidence les implications éthiques cruciales de l'utilisation de l'IA auxquelles nous devrions tous être attentifs. Poursuivez votre lecture pour en savoir plus !

Les bouleversements technologiques : Comment les vagues numériques façonnent les élections et la démocratie. -Megan Shahi

Megan Shahi, directrice de la politique technologique à American Progress, s'est penchée sur le rôle des médias sociaux et de la technologie de l'IA dans l'organisation des élections américaines de 2024.

Cette question est plus cruciale que jamais, car l'essor des technologies de l'IA permet de créer des fabrications et des distorsions sophistiquées, ce qui it de plus en plus difficile la distinction entre ce qui est réel et ce qui ne l'est pas. Dans son étude approfondie, Megan a examiné comment les plateformes de médias sociaux grand public, les contenus générés par l'IA, les théories du complot, la désinformation et l'absence de réglementation dans le domaine de la technologie façonnent les opinions des électeurs et, dans certains cas, même les résultats des élections.

La présentation a également mis en lumière plusieurs préoccupations urgentes, telles que la nécessité d'identifier des sources fiables d'informations faisant autorité à une époque dominée par l'IA et les deepfakes, la susceptibilité du public à la manipulation, les dangers de la persuasion ciblée et l'absence flagrante de réglementations fédérales régissant la technologie aux États-Unis.

Megan Shahi à Emerce EDAY 2024

Les dangers de la désinformation

Megan a expliqué comment les outils d'IA peuvent être utilisés à mauvais escient pour diffuser rapidement des informations fausses ou trompeuses sur les médias sociaux, déformer le discours public, manipuler l'opinion des électeurs et saper les processus démocratiques. Le problème éthique réside dans l'utilisation délibérée de l'IA pour tromper, influencer les décisions à l'aide de contenus fabriqués et de théories du complot, ce dont nous avons souvent été témoins au cours de cette année électorale.

Plus récemment, en septembre de cette année, The Guardian a fait état d'un incident de désinformation qui s'est produit à un moment critique de l'élection présidentielle de 2024 : Après le retrait de Joe Biden de la course à la présidence, des informations erronées ont commencé à se répandre en ligne avec des captures d'écran affirmant qu'un nouveau candidat ne pouvait pas être ajouté aux bulletins de vote dans neuf États. Ces informations ont rapidement été vues par des millions de personnes sur Twitter et X, et ont suscité des demandes de vérification des faits pour ces messages, qui étaient tout simplement erronés, car les dates limites de dépôt des bulletins de vote n'étaient pas encore passées et Kamala Harris avait encore largement le temps de faire ajouter son nom aux bulletins de vote. La source de la désinformation ? Le chatbot de Twitter, Grok. Lorsque les utilisateurs ont demandé à Gronk si un nouveau candidat avait encore le temps d'être inscrit sur les bulletins de vote, it donné une réponse erronée.

Cette erreur a finalement été corrigée et le chatbot dirige désormais les utilisateurs vers un autre site web, http://vote.gov, lorsqu'ils sont interrogés sur les élections. Cependant, malgré la nature relativement inoffensive de cet incident de désinformation, étant donné qu'it n'aurait pas empêché les gens de voter, it a mis en lumière un problème plus important : la facilité avec laquelle it est possible de diffuser des informations erronées à grande échelle en utilisant une plateforme de médias sociaux. De plus, Grok peut également générer des images extrêmement réalistes qui contribuent aux clivages partisans et peuvent induire les gens en erreur à un degré sans précédent.

L'essor de la technologie deepfake

Megan a fait valoir que l'essor des "deepfakes" (contenus truqués) créés par l'IA constitue une menace sérieuse, car it peuvent être utilisés pour tromper le public, nuire à la réputation ou même influencer les résultats électoraux. Les deepfakes sont des vidéos, des images ou des sons hyperréalistes mais entièrement fabriqués, créés à l'aide de l'IA, qui mettent souvent en scène des personnes réelles ou fictives dans des scénarios convaincants mais faux. Si certains deepfakes peuvent être facilement détectés par un œil averti, ils sont beaucoup plus difficiles à identifier pour ceux qui ne sont pas familiers avec la technologie ou qui sont moins avertis. Malheureusement, les personnes âgées sont particulièrement vulnérables aux escroqueries par deepfake, car elles n'ont souvent pas la culture numérique des jeunes générations.

Persuasion ciblée et sensibilité du public

La capacité de l'IA à analyser de grandes quantités de données a permis le microciblage, où des groupes ou des individus spécifiques reçoivent un contenu sur mesure conçu pour influencer leurs croyances et leurs actions. Cela soulève des questions éthiques quant à l'exploitation des données personnelles à des fins de manipulation politique ou idéologique, souvent à l'insu ou sans le consentement des personnes concernées. Compte tenu de l'efficacité de ces tactiques de persuasion ciblées, itn'est pas étonnant que les analystes financiers aient qualifié les données comportementales numériques des individus de "plus précieuses que le pétrole".

Le problème majeur ? L'absence de réglementation fédérale

En fin de compte, a expliqué Megan, le problème est lié à l'absence de réglementation régissant l'utilisation de l'IA et des technologies des médias sociaux dans les campagnes politiques et les élections aux États-Unis et ailleurs. Sans surveillance adéquate, l'utilisation abusive des outils d'IA peut persister sans contrôle, permettant des pratiques néfastes qui mettent en péril l'intégrité des systèmes démocratiques. En outre, le rythme auquel la technologie évolue - en particulier en ce qui concerne la création de fausses nouvelles - dépasse de loin le développement de politiques visant à it réglementer, ce qui nécessite des efforts considérables pour combler ce fossé.

Dans l'ensemble, cette session a offert des perspectives inestimables sur l'impact profond de l'IA et des médias sociaux sur la démocratie. De la propagation de la désinformation aux menaces posées par les contenus falsifiés et la persuasion ciblée, l'utilisation abusive de ces technologies sape les processus électoraux. Le besoin urgent de réglementation est évident ; comme l'a souligné Megan Shahi, les progrès rapides de l'IA ont dépassé l'élaboration des politiques, laissant des lacunes critiques dans la surveillance. Pour répondre à ces préoccupations éthiques, il faut agir rapidement et s'engager à favoriser un électorat mieux informé et plus résilient face aux bouleversements numériques.

Vous souhaitez en savoir plus sur ce sujet ? Contactez Megan Shahi sur LinkedIn !

La GenAI rencontre l'informatique affective. Nos nouvelles relations. -Sophie Kleber

Lors de cette session, Sophie Kleber, directrice UX chez Google, a abordé une question cruciale : Comment pouvons-nous concevoir des personnalités virtuelles qui respectent l'unicité humaine plutôt que de devenir des sycophantes numériques qui exploitent nos vulnérabilités ?

Cette présentation s'articule autour du concept des ordinateurs en tant qu'acteurs sociaux et explore les faiblesses humaines lors de l'interaction avec les technologies humanoïdes, en soulignant les défis et les responsabilités éthiques liés à la création d'une IA émotionnellement intelligente.

Sophie Kleber à Emerce EDAY 2024

Dites-vous "s'il vous plaît" et "merci" à ChatGPT ?

Sophie Kleber a postulé que nous avons tendance à combler les lacunes et à nouer des relations lorsque la technologie imite le comportement humain - un effet connu sous le nom d'"effet Eliza", qui est plus répandu que nous ne le pensons. Prenons l'exemple de ChatGPT : Vous arrive-t-il de dire "s'il vous plaît" et "merci" ? Vous savez qu'its'agit d'un ordinateur qui transmet des informations, et non d'une personne à l'autre bout du fil. Pourtant, son ton naturel et conversationnel nous incite à suivre les mêmes conventions sociales de politesse que nous utiliserions avec une personne réelle, comme si nous avions peur d'être impolis, même avec une machine.

Sommes-nous en train de nous engager dans des relations romantiques avec l'IA ?

Dire "s'il vous plaît" et "merci" à ChatGPT est-il intrinsèquement problématique ? Pas nécessairement, mais it renvoie à un problème plus large : notre tendance à humaniser la technologie. Sophie a expliqué qu'à une extrémité du spectre, nous avons des interactions purement transactionnelles et robotiques, comme avec les premières versions de Google Assistant. À l'autre extrémité, nous voyons des connexions hautement personnalisées et même intimes, comme les relations que certaines personnes entretiennent avec "Alexa", qu'it traitent même comme un membre de la famille. Dans des cas plus extrêmes, la technologie est tellement humanisée que les gens s'y attachent de manière romantique, comme on le voit dans le film Her. Au-delà de la fiction, des programmes d'IA comme "Replika" et "Xiaoice" vont encore plus loin, Xiaoice s'étant vu dire "Je t'aime" plus de 20 millions de fois. La preuve est faite : partout dans le monde, des personnes nouent des relations affectives, voire romantiques, avec l'IA.

Face à cela, Sophie nous invite à reconnaître que si l'IA peut améliorer les interactions, it ne doit jamais être considérée comme un substitut aux relations humaines authentiques. Bien que l it IA puisse détecter des modèles et générer des réponses à l'aide d'algorithmes prédéfinis, il lui manque la compréhension nuancée des émotions humaines et elle est incapable d'éprouver des sentiments et d'avoir des capacités cognitives, telles que la conscience et les réactions émotionnelles, c'est-à-dire la sensibilité. En d'autres termes, l'IA n'est pas conçue pour répondre aux besoins psychologiques de l'homme, car le mimétisme n'est pas la même chose que l'empathie, et l'IA n'est capable que du premier.

Mais qui a la responsabilité de fixer des limites à l'IA ?

La question demeure : Qui est chargé de définir les limites de nos relations avec l'IA ? Les utilisateurs doivent-ils être responsables de la fixation des limites ou cette responsabilité incombe-t-elle aux créateurs de ces technologies ? Sophie a plaidé pour cette dernière solution, en présentant un cadre pour les pratiques de conception éthique dans les interfaces conversationnelles - un cadre qui améliore l'interaction humaine tout en sauvegardant l'intégrité et en évitant l'exploitation des vulnérabilités.

À l'heure où l'IA imprègne de plus en plus les différents aspects de notre vie quotidienne, les discussions de ce type sont plus pertinentes que jamais. Cette session a été particulièrement utile pour les concepteurs, les développeurs et tous ceux qui s'intéressent à l'IA et à l'interaction homme-machine, car elle a permis de comprendre comment créer des personnalités virtuelles qui respectent et reflètent véritablement les personnes qui s'engagent avec elles. À l'avenir, nous devrions nous encourager mutuellement à évaluer de manière critique les implications éthiques de la construction d'une IA émotionnellement intelligente et humanoïde afin de progresser et d'innover dans la bonne direction.

Vous souhaitez approfondir le sujet ? Connectez-vous avec Sophie Kleber sur LinkedIn !

Portrait de Leonie Becher Merli, 
représentante du développement commercial, Alumio, pointe vers la droite avec les deux mains - sur un fond circulaire blanc.

Obtenir une demo gratuite de la plateforme Alumio

pour découvrir les avantages de l'automatisation des entreprises !
A propos de notre partenaire
Prendre contact

Nous sommes heureux de vous aider et de répondre à vos questions.

Commencer à intégrer avec des applications populaires !

Aucun élément n'a été trouvé.

Se connecter avec n'importe quel point d'extrémité personnalisé

Commencer à intégrer avec des applications populaires !

Aucun élément n'a été trouvé.

Connecter avec

Aucun élément n'a été trouvé.
Portrait de Leonie Becher Merli, 
représentante du développement commercial, Alumio, pointe vers la droite avec les deux mains - sur un fond circulaire blanc.

Obtenir une demo gratuite de la plateforme Alumio