Cambios tecnotónicos: Cómo las ondas digitales moldean las elecciones y la democracia. -Megan Shahi
Megan Shahi, directora de Política Tecnológica de American Progress, ahondó en el papel de las redes sociales y la tecnología de IA en la configuración de las elecciones estadounidenses de 2024.
Esto es más crítico que nunca, ya que el auge de las tecnologías de IA permite la creación de sofisticadas fabricaciones y distorsiones, lo que it cada vez más difícil distinguir entre lo que es real y lo que no lo es. En su análisis en profundidad, Megan examinó cómo las principales plataformas de medios sociales, los contenidos generados por IA, las teorías conspirativas, la desinformación y la falta de regulación en el ámbito tecnológico están influyendo en las opiniones de los votantes y, en algunos casos, incluso en los resultados de las elecciones.
La presentación también puso de relieve varias preocupaciones acuciantes, como la necesidad de identificar fuentes fiables de información fidedigna en una era dominada por la IA y los deepfakes, la susceptibilidad del público a la manipulación, los peligros de la persuasión selectiva y la flagrante ausencia de normativas federales que regulen la tecnología en Estados Unidos.

Los peligros de la desinformación
Megan explicó cómo las herramientas de IA pueden utilizarse mal para difundir rápidamente información falsa o engañosa en las redes sociales, distorsionando el discurso público, manipulando las opiniones de los votantes y socavando los procesos democráticos. La preocupación ética radica en el uso deliberado de la IA para engañar, influyendo en las decisiones con contenidos inventados y teorías conspirativas, algo de lo que hemos sido testigos con frecuencia en este año electoral.
Más recientemente, en septiembre de este año, The Guardian informó sobre un incidente de desinformación que tuvo lugar en un momento crítico de las elecciones presidenciales de 2024: Después de que Joe Biden se retirara de la carrera presidencial, la desinformación empezó a propagarse por Internet con capturas de pantalla en las que se afirmaba que no se podía añadir un nuevo candidato a las papeletas en nueve estados. Esto rápidamente reunió millones de visitas en Twitter, ahora X, y provocó solicitudes de comprobación de hechos para estas publicaciones, que eran simplemente erróneas, ya que los plazos de votación no habían pasado, y Kamala Harris todavía tenía tiempo de sobra para añadir su nombre a las papeletas. ¿La fuente de la desinformación? El chatbot de inteligencia artificial de Twitter, Grok. Cuando los usuarios preguntaron a Gronk si un nuevo candidato aún tenía tiempo de ser añadido a las papeletas it dio la respuesta incorrecta.
Finalmente se corrigió, y ahora el chatbot dirige a los usuarios a un sitio web diferente, http://vote.gov, cuando se les pregunta sobre las elecciones. Sin embargo, a pesar de la naturaleza relativamente inofensiva de este incidente de desinformación it dado que no habría impedido que la gente votara, it refería a una cuestión más importante: lo fácil it es difundir desinformación por todas partes utilizando una plataforma de redes sociales. No sólo eso, sino que Grok también puede generar imágenes extremadamente realistas que contribuyen a las divisiones partidistas y pueden engañar a la gente hasta un grado sin precedentes.
El auge de la tecnología deepfake
Megan argumentó que el aumento de los contenidos deepfake creados mediante IA plantea una grave amenaza, ya it pueden utilizarse para engañar al público, dañar la reputación o incluso influir en los resultados electorales. Los deepfakes son vídeos, imágenes o audios hiperrealistas pero totalmente inventados, creados mediante IA, que a menudo muestran a personas reales o ficticias en escenarios convincentes pero falsos. Aunque algunos deepfakes pueden ser fáciles de detectar para un ojo entrenado, son mucho más difíciles de identificar para quienes no están familiarizados con la tecnología o tienen menos conocimientos técnicos. Por desgracia, las personas mayores son especialmente vulnerables a las estafas de deepfake, ya que a menudo carecen de los conocimientos digitales que poseen las generaciones más jóvenes.
Persuasión selectiva y susceptibilidad del público
La capacidad de la IA para analizar grandes cantidades de datos ha permitido la microdirigenciación, en la que grupos o individuos específicos reciben contenidos personalizados diseñados para influir en sus creencias y acciones. Esto plantea problemas éticos sobre la explotación de datos personales para la manipulación política o ideológica, que a menudo se produce sin el conocimiento o el consentimiento de los afectados. Dada la eficacia de estas tácticas de persuasión selectiva, no itde extrañar que los analistas financieros se hayan referido a los datos de comportamiento digital de las personas como "más valiosos que el petróleo."
¿Cuál es el problema? La falta de normativa federal
En última instancia, explicó Megan, el problema radica en la falta de normas que regulen el uso de la IA y las tecnologías de las redes sociales en las campañas políticas y las elecciones en Estados Unidos y otros países. Sin una supervisión adecuada, el uso indebido de las herramientas de IA puede persistir sin control, permitiendo prácticas nocivas que ponen en peligro la integridad de los sistemas democráticos. Por otra parte, el ritmo al que evoluciona la tecnología -especialmente en la creación de noticias falsas- supera con creces el desarrollo de políticas para it, lo que requiere esfuerzos significativos para salvar esta brecha.
En general, esta sesión ofreció valiosas perspectivas sobre el profundo impacto de la IA y las redes sociales en la democracia. Desde la propagación de la desinformación hasta las amenazas planteadas por el deepfake content y la persuasión selectiva, el uso indebido de estas tecnologías socava los procesos electorales. La necesidad urgente de regulación es evidente; como Megan Shahi destacó, el rápido avance de la IA ha superado el desarrollo de políticas, dejando lagunas críticas en la supervisión. Abordar estas preocupaciones éticas exige una acción rápida y un compromiso para fomentar un electorado más informado y resistente frente a la disrupción digital.
¿Le interesa saber más sobre este tema? Póngase en contacto con Megan Shahi en LinkedIn.
GenAI y computación afectiva. Nuestras nuevas relaciones. -Sophie Kleber
En esta sesión, Sophie Kleber, Directora de UX en Google, abordó una cuestión crítica: ¿Cómo podemos diseñar personalidades virtuales que respeten la singularidad humana en lugar de convertirse en aduladores digitales que exploten nuestras vulnerabilidades?
Esta presentación giró en torno al concepto de los ordenadores como actores sociales y exploró las debilidades humanas al interactuar con tecnologías humanoides, destacando los retos éticos y las responsabilidades que conlleva la creación de una IA emocionalmente inteligente.

¿Dices "por favor" y "gracias" a ChatGPT?
Sophie Kleber postuló que tendemos a rellenar los huecos y a establecer relaciones cuando la tecnología imita el comportamiento humano, un efecto conocido como "efecto Eliza", que está más extendido de lo que creemos. Por ejemplo, ChatGPT: ¿Te encuentras a ti mismo diciendo "por favor" y "gracias"? Sabe itsólo es un ordenador el que transmite la información, no una persona al otro lado. Sin embargo, su tono natural de conversación nos incita a seguir las mismas convenciones sociales de cortesía que utilizaríamos con una persona real, como si tuviéramos miedo de ser groseros, incluso con una máquina.
¿Estamos entablando relaciones románticas con la IA?
¿Decir "por favor" y "gracias" a ChatGPT es intrínsecamente problemático? No necesariamente, pero apunta a una cuestión más amplia: nuestra tendencia a humanizar la tecnología. Sophie explicó que, en un extremo del espectro, tenemos interacciones puramente transaccionales, similares a las de un robot, como las de las primeras versiones de Google Assistant. En el otro, vemos conexiones altamente personalizadas e incluso íntimas, como las relaciones que algunas personas tienen con "Alexa", incluso it como a un miembro de la familia. En casos más extremos, la tecnología se humaniza tanto que las personas forman vínculos románticos, como se ve en la película Her. Más allá de la ficción, programas de IA como "Replika" y "Xiaoice" llevan esto un paso más allá, y a Xiaoice se le ha dicho "te quiero" más de 20 millones de veces. Las pruebas son claras: personas de todo el mundo están estableciendo relaciones emocionales, incluso románticas, con la IA.
Ante esto, Sophie nos insta a reconocer que it aunque la IA puede mejorar las interacciones, nunca debe considerarse un sustituto de las relaciones humanas genuinas. Aunque la IA puede detectar patrones y generar respuestas mediante algoritmos predefinidos, carece de la comprensión matizada de las emociones humanas y it incapaz de experimentar sentimientos y tener capacidades cognitivas, como conciencia y reacciones emocionales, es decir, sintiencia. En otras palabras, la IA no está diseñada para satisfacer las necesidades psicológicas humanas, ya que imitar no es lo mismo que empatizar, y la IA sólo es capaz de lo primero.
Pero, ¿sobre quién recae la responsabilidad de establecer los límites con la IA?
La pregunta sigue en pie: ¿Quién es el responsable de definir los límites en nuestras relaciones con la IA? ¿Deben ser los propios usuarios los responsables de establecer los límites o esta responsabilidad recae en los creadores de dicha tecnología? Sophie defiende esta última postura y presenta un marco de prácticas de diseño éticas para las interfaces conversacionales, que mejoran la interacción humana al tiempo que salvaguardan la integridad y evitan la explotación de vulnerabilidades.
A medida que la IA impregna cada vez más distintos aspectos de nuestra vida cotidiana, debates como este son más pertinentes que nunca. Esta sesión fue especialmente valiosa para diseñadores, desarrolladores y cualquier persona interesada en la IA y la interacción persona-ordenador, ya que ofreció ideas sobre cómo construir personalidades virtuales que realmente respeten y reflejen a las personas que interactúan con ellas. De cara al futuro, debemos animarnos mutuamente a evaluar de forma crítica las implicaciones éticas de la creación de IA humanoide y emocionalmente inteligente para avanzar e innovar en la dirección correcta.
¿Quiere profundizar en el tema? Conecta con Sophie Kleber en LinkedIn.