Alumio en Emerce EDAY 2024: Explorando los peligros de la IA
Emerce EDAY 2024 fue un evento dinámico que reunió a algunas de las voces más influyentes de la tecnología, los medios, las marcas y el comercio electrónico. El día estuvo repleto de presentaciones interesantes, lo que lo convirtió en una oportunidad de aprendizaje imperdible para los profesionales deseosos de mantenerse a la vanguardia de las últimas tendencias. Dos presentaciones a las que asistimos, en particular, señalaron los peligros potenciales de la IA, o mejor dicho, el uso indebido de la IA, y las preocupaciones éticas que se derivan de ella. Desde amenazar las elecciones y la democracia hasta fomentar relaciones virtuales unilaterales, ambas presentaciones destacaron las implicaciones éticas cruciales que rodean el uso de la IA y que todos debemos tener en cuenta. ¡Sigue leyendo para saber más!
Cambios tecnológicos: cómo las olas digitales dan forma a las elecciones y la democracia. - Megan Shahi
Megan Shahi, directora de Política Tecnológica de American Progress, profundizó en el papel de las redes sociales y la tecnología de inteligencia artificial en la configuración de las elecciones estadounidenses de 2024.
Esto es más importante que nunca, ya que el auge de las tecnologías de inteligencia artificial permite la creación de fabricaciones y distorsiones sofisticadas, lo que hace que sea cada vez más difícil distinguir entre lo que es real y lo que no lo es. En su análisis en profundidad, Megan examinó cómo las principales plataformas de redes sociales, el contenido generado por la IA, las teorías de la conspiración, la desinformación y la falta de regulación en el espacio tecnológico están moldeando las opiniones de los votantes y, en algunos casos, incluso los resultados de las elecciones.
La presentación también destacó varias preocupaciones urgentes, como la necesidad de identificar fuentes confiables de información fidedigna en una era dominada por la IA y los deepfakes, la susceptibilidad del público a la manipulación, los peligros de la persuasión dirigida y la evidente ausencia de regulaciones federales que rijan la tecnología en los Estados Unidos.
Los peligros de la desinformación
Megan explicó cómo las herramientas de inteligencia artificial pueden utilizarse indebidamente para difundir rápidamente información falsa o engañosa en las redes sociales, distorsionando el discurso público, manipulando las opiniones de los votantes y socavando los procesos democráticos. La preocupación ética radica en el uso deliberado de la IA para engañar e influir en las decisiones con contenido inventado y teorías de conspiración, algo que hemos presenciado con frecuencia en este año electoral.
Más recientemente, en septiembre de este año, El guardián informó sobre un incidente de desinformación que tuvo lugar en un momento crítico de las elecciones presidenciales de 2024: después de que Joe Biden se retirara de la carrera presidencial, la información errónea comenzó a difundirse en Internet con capturas de pantalla en las que se afirmaba que no se podía añadir un nuevo candidato a las papeletas en nueve estados. Esto acumuló rápidamente millones de visitas en Twitter, ahora X, y dio lugar a solicitudes de verificación de datos para estas publicaciones, que simplemente eran incorrectas, ya que los plazos de votación no habían pasado y Kamala Harris aún tenía tiempo de sobra para añadir su nombre a las papeletas. ¿La fuente de la desinformación? El chatbot de IA de Twitter, Grok. Cuando los usuarios le preguntaron a Gronk si un nuevo candidato aún estaba a tiempo de ser agregado a las papeletas, respondió incorrectamente.
Finalmente, esto se corrigió y ahora el chatbot dirige a los usuarios a un sitio web diferente, http://vote.gov, cuando se le preguntó acerca de las elecciones. Sin embargo, a pesar de la naturaleza relativamente inofensiva de este incidente de desinformación, dado que no habría impedido que las personas emitieran su voto, abordó un tema más importante: lo fácil que es difundir información errónea por todas partes utilizando una plataforma de redes sociales. No solo eso, sino que Grok también puede generar imágenes extremadamente realistas que contribuyen a las divisiones partidistas y pueden engañar a la gente en un grado sin precedentes.
El auge de la tecnología deepfake
El auge del contenido deepfake impulsado por la inteligencia artificial representa una grave amenaza, ya que puede usarse para engañar al público, dañar la reputación o incluso influir en los resultados electorales. Los deepfakes son vídeos, imágenes o audios hiperrealistas pero totalmente inventados creados con IA, que a menudo muestran a personas reales o ficticias en escenarios convincentes pero falsos. Si bien algunos deepfakes pueden ser fáciles de detectar para un ojo entrenado, son mucho más difíciles de identificar para quienes no están familiarizados con la tecnología o son menos expertos en tecnología. Desafortunadamente, las personas mayores son particularmente vulnerables a las estafas de deepfake, ya que a menudo carecen de la alfabetización digital que poseen las generaciones más jóvenes.
Persuasión dirigida y susceptibilidad pública
La capacidad de la IA para analizar grandes cantidades de datos ha permitido la microsegmentación, en la que grupos o individuos específicos reciben contenido personalizado diseñado para influir en sus creencias y acciones. Esto plantea preocupaciones éticas sobre la explotación de datos personales con fines de manipulación política o ideológica, que a menudo ocurre sin el conocimiento o el consentimiento de los afectados. Dada la eficacia de estas tácticas de persuasión específicas, no es de extrañar que los analistas financieros se hayan referido a los datos de comportamiento digital de las personas como «más valioso que el petróleo».
¿El problema general? La falta de regulaciones federales
En última instancia, el problema depende de la falta de regulaciones que rijan el uso de la IA y las tecnologías de redes sociales en las campañas políticas y elecciones en los EE. UU. y más allá. Sin una supervisión adecuada, el uso indebido de las herramientas de inteligencia artificial puede persistir sin control, lo que permite prácticas dañinas que ponen en peligro la integridad de los sistemas democráticos. Además, el ritmo al que evoluciona la tecnología, especialmente en lo que respecta a la creación de noticias falsas, supera con creces el desarrollo de políticas para regularla, por lo que se requieren esfuerzos importantes para cerrar esta brecha.
En general, esta sesión ofreció información invaluable sobre el profundo impacto de la IA y las redes sociales en la democracia. Desde la difusión de desinformación hasta las amenazas que representan el contenido deepfake y la persuasión dirigida, el uso indebido de estas tecnologías socava los procesos electorales. La urgente necesidad de una regulación es evidente; como destacó Megan Shahi, el rápido avance de la IA ha superado el desarrollo de políticas, dejando brechas críticas en la supervisión. Abordar estas preocupaciones éticas exige una acción rápida y el compromiso de fomentar un electorado más informado y resiliente ante la disrupción digital.
¿Está interesado en obtener más información sobre este tema? ¡Comunícate con Megan Shahi en LinkedIn!
GenAI se une a la computación afectiva. Nuestras nuevas relaciones. -Sophie Kleber
En esta sesión, Sophie Kleber, directora de experiencia de usuario de Google, abordó una pregunta fundamental: ¿cómo podemos diseñar personalidades virtuales que respeten la singularidad humana en lugar de convertirnos en aduladores digitales que explotan nuestras vulnerabilidades?
Esta presentación giró en torno al concepto de las computadoras como actores sociales y exploró las debilidades humanas al interactuar con las tecnologías humanoides, destacando los desafíos éticos y las responsabilidades que implica la creación de una IA emocionalmente inteligente.
¿Dices «por favor» y «gracias» a ChatGPT?
Sophie Kleber postuló que tendemos a llenar los vacíos y establecer relaciones cuando la tecnología imita el comportamiento humano, un efecto conocido como el «efecto Eliza», que es más generalizado de lo que creemos. Tomemos ChatGPT, por ejemplo: ¿te encuentras diciendo «por favor» y «gracias»? Sabes que es solo una computadora que transmite información, no una persona del otro lado. Sin embargo, su tono conversacional natural nos impulsa a seguir las mismas convenciones sociales de cortesía que usaríamos con una persona real como si tuviéramos miedo de ser groseros, incluso con una máquina.
¿Estamos entablando relaciones románticas con la IA?
¿Decir «por favor» y «gracias» a ChatGPT es intrínsecamente problemático? No necesariamente, pero apunta a un problema mayor: nuestra tendencia a humanizar la tecnología. En un extremo del espectro, tenemos interacciones puramente transaccionales, similares a las de los robots, como en las primeras versiones del Asistente de Google. Por otro lado, vemos conexiones altamente personalizadas e incluso íntimas, como las relaciones que algunas personas tienen con «Alexa», incluso tratándola como un miembro de la familia. En casos más extremos, la tecnología se humaniza tanto que las personas forman vínculos románticos, como se ve en la película Su. Más allá de la ficción, explicó Sophie, los programas de IA como «Replika» y «Xiaoice» llevan esto un paso más allá, ya que a Xiaoice le dicen «Te quiero» más de 20 millones de veces. La evidencia es clara: personas de todo el mundo están forjando relaciones emocionales, incluso románticas, con la IA.
Ante esto, es crucial reconocer que, si bien la IA puede mejorar las interacciones, nunca debe verse como un sustituto de las relaciones humanas genuinas. Aunque la IA puede detectar patrones y generar respuestas mediante algoritmos predefinidos, carece de una comprensión matizada de las emociones humanas y es incapaz de experimentar sentimientos y tener habilidades cognitivas, como la conciencia y las reacciones emocionales, es decir, la sensibilidad. En otras palabras, la IA no está diseñada para satisfacer las necesidades psicológicas humanas, ya que la mímica no es lo mismo que la empatía, y la IA solo es capaz de hacer lo primero.
Pero, ¿quién tiene la responsabilidad de establecer límites con la IA?
La pregunta sigue siendo: ¿quién es responsable de definir los límites en nuestras relaciones con la IA? ¿Deberían los propios usuarios ser responsables de establecer los límites, o esta responsabilidad recae en los creadores de dicha tecnología? Sophie defendió lo último y presentó un marco para las prácticas de diseño ético en las interfaces conversacionales, un marco que mejora la interacción humana al tiempo que salvaguarda la integridad y evita la explotación de las vulnerabilidades.
A medida que la IA impregna cada vez más diferentes aspectos de nuestra vida diaria, debates como estos son más relevantes que nunca. Esta sesión fue particularmente valiosa para diseñadores, desarrolladores y cualquier persona interesada en la IA y la interacción entre humanos y computadoras, ya que ofreció ideas sobre cómo crear personalidades virtuales que realmente respeten y reflejen a las personas que interactúan con ellas. En el futuro, debemos alentarnos unos a otros a evaluar críticamente las implicaciones éticas de construir una IA humanoide y emocionalmente inteligente para avanzar e innovar en la dirección correcta.
¿Quieres profundizar en el tema? ¡Conéctese con Sophie Kleber en LinkedIn!