La IA, deepfakes, desinformación e incapacidad de las redes sociales de moderar contenido, y hasta donde se pueden gestar protestas violentas, incluso, insurrecciones, son las amenazas que se ciernen en torno a las próximas elecciones presidenciales de Estados Unidos del 2024, de acuerdo a expertos políticos o tecnológicos.
A últimas fechas, las elecciones en Estados Unidos se están convirtiendo en un campo de batalla en lugar de una actividad cívica.
La gran mentira de que los demócratas se robaron las elecciones de 2020 sigue siendo creída por una gran mayoría del Partido Republicano y posiblemente por algunos independientes. Donald Trump y otros siguen proyectando la gran mentira en 2024, lo que aumenta la posibilidad de que muchos crean que la violencia durante las elecciones y sus alrededores está justificada.
Para el próximo año la desinformación que se produjo en 2020 es aún más perniciosa debido al uso de IA y Deep Fakes.
Durante la conferencia virtual ¿Qué amenazas se ciernen sobre las elecciones estadounidenses de 2024? ¿Estamos preparados para afrontarlas? que organizó Ethnic Media Services los ponentes expusieron las amenazas más peligrosas para las elecciones de 2024 y qué se está haciendo al respecto.
“La IA, que potencialmente amplifica esta amenaza de desinformación, empeorará aún más en 2024. Y es cierto que la IA puede hacer que sea más fácil y económico para los no profesionales crear medios falsos, correos electrónicos falsos y sitios web falsos, incluyendo deepfakes”, dijo Gowri Ramachandran, directora Adjunta del Programa de Elecciones y Gobierno del Centro Brena
La experta agrego que para verificar cuentas falsas en un sitio con .gov porque es más difícil de sea falso.
«O también pueden recurrir a la agencia federal por si algún trabajador electoral cae en una cuenta falsa”, comentó. «Hay varias prácticas para usar y para proteger la integridad de las elecciones”.
Por su parte Sam Gregory, director ejecutivo, Witness.org, opinó que la IA y los deepfakes podrían facilitar la automatización de productos frágiles para que haya más.
“Aunque sigue siendo muy difícil de identificar, pero, afortunadamente, muchas de las mismas cosas que los funcionarios electorales les recomendaron en el pasado para combatir este tipo de información falsa todavía pueden funcionar frente a la IA”, dijo.
¿Y cómo encaja eso en un panorama legislativo más amplio que también podría estar tomando forma en él?”, agregó. “Entonces, creo que es importante que la gente sepa de algunos cambios técnicos”.
Comentó que la capacidad, por ejemplo, de hacer deepfakes de intercambio de caras muy convincentes en los que tomas la cara de alguien o la manipulas, generalmente ha sido desproporcionada con la capacidad técnica para hacerlo.
“Y, en particular, la capacidad técnica para hacerlo en una variedad de entornos y situaciones complejas de la vida real. Lo que ha cambiado en el último año y creo que es en lo que los periodistas y otras personas deben pensar es que se está viendo una mayor facilidad en dos áreas”, dijo.
Desgraciadamente, agregó, actualmente se puede hacer prácticamente cualquier herramienta y se puede generar una imagen a partir de un mensaje de texto.
“Esto es trivialmente sencillo de hacer para casi cualquier persona en este momento, por lo tanto, la generación de imágenes se ha vuelto mucho más fácil de hacer tanto en términos de imágenes individuales como de un volumen de imágenes y un volumen de variación de una imagen”, explicó.
En cuanto a los audios, Gregory dijo que también es muy probable que se vea durante los meses previos, durante y después de las elecciones.
“El audio también ha mejorado mucho en el último año, tanto en accesibilidad como en facilidad de producción, por lo tanto, existe una variedad de herramientas comerciales a las que puede usar una versión gratuita o acceder de otra manera que le permitan ingresar una cierta cantidad de audio y luego poder crear una voz mímica a partir de texto o similar”, dijo.
Lo que se ha utilizado en algunos de los contextos de desinformación y contexto electoral a nivel mundial y que también es relativamente fácil crear, añadió, es un avatar sintético de alguien que parece un humano y que puede animarse para hacerlo.
“Todavía sigue siendo relativamente difícil hacer videos animados como los de la vida real en circunstancias del mundo real, lo cual creo que es en gran medida a lo que la gente recurre cuando hace suposiciones en esta área, entonces, que los periodistas partan de una línea de base de lo que realmente es posible versus cuál es la narrativa sobre esto, creo que es útil”, comentó.
Dijo que el mal uso de esas herramientas impactan en un contexto particularmente político y electoral.
“Lo primero que debemos saber es que esto ha sido así constantemente. En torno a los deepfakes desde 2018, se utilizan para dirigirse a mujeres y, en cierta medida, a otras identidades de género con deepfakes sexuales no consensuados.
“Por supuesto, esto es una amenaza para ambos porque puede apuntar a personas que están en la vida pública y en la vida privada y, a veces, no eres consciente de lo que está sucediendo, entonces, es muy importante que los periodistas sean conscientes de que esta amenaza está ahí, se está desplegando”, señaló.
Destacó que incluso, se le puede pagar a alguien para que haga deeptakes por muy poco dinero.
“Entonces, esa es una amenaza que puede tener implicaciones políticas y también tiene implicaciones muy significativas para expulsar a las personas de la esfera pública. En conversaciones que he tenido con personas que trabajan en procesos electorales, esto es algo que han visto y que también les preocupa porque se basa en patrones existentes”, dijo.
Gregory comentó que definitivamente se están viendo patrones globales en torno a la generación de imágenes.
Agregó que el conflicto entre Israel y Gaza es donde se observan algunos patrones, al igual que en otras elecciones a nivel mundial.
Dijo que la generación de imágenes es fácil y se está implementando en una amplia gama de contextos.
“Hay una variedad de actores en este tipo de escenarios. Hay campañas oficiales, hay representantes, hay otros actores y hay actores de desinformación”, comentó. “Estamos viendo que esas imágenes ocurren en prácticamente todo el rango. En Estados Unidos se utilizan en anuncios políticos, pero en otros países se utilizan con mayor frecuencia”.
Dijo que hay que prepararse porque en las próximas elecciones van a predominar los audios engañosos y los deepfakes.
“También deberíamos pensar en las personas que están pisando la delgada línea entre el contenido satírico y la desinformación, ya lo vemos en varios contextos. Entonces, en términos de soluciones y en qué debería pensar, existe una variedad de soluciones técnicas.
“Legislativamente, no soy demasiado optimista en cuanto a que habrá un conjunto completo de legislación federal o estatal de E.U. que aborde este tema”, expresó Gregory.
Redes sociales: Incapaces de moderar contenidos
Benavidez opinó que uno de los mayores defectos de las empresas de redes sociales cuando se trata de elecciones es la forma en que intensifican sus esfuerzos de integridad electoral apenas unos meses antes de las elecciones en una región determinada.
“Eso realmente nunca es lo suficientemente pronto. A menudo es demasiado tarde”, expresó.
Benavidez añadió que después de la insurrección del 6 de enero en los Estados Unidos las empresas de tecnología como Meta, TikTok, Twitter, YouTube, Google aceptaron incapacidad para moderar contenido.
“De alguna manera jugaron un papel en socavar la seguridad pública y la democracia”, expresó. “También vimos el papel que desempeñaron las redes sociales en el período previo y en torno al intento de golpe en Brasil y durante las últimas seis semanas hemos visto que las redes sociales se volvieron aún más tóxicas y caóticas en medio del conflicto en el Medio Oriente con respecto a Israel y Gaza”.
Dijo que Twitter, ahora X, es realmente excepcionalmente una plataforma muy mala.
“Elon Musk ha eliminado toda responsabilidad. Eliminó a su junta directiva, el Consejo de Confianza y Seguridad, y a la mayor parte de su equipo de confianza y seguridad.
“Ciertamente una vez que Elon Musk compró Twitter. Twitter, creo que lo llamó un gran fracaso porque, mientras que las otras grandes empresas de redes sociales lo han hecho, de alguna manera han priorizado la integridad de la plataforma con impacto en el mundo real”, señaló.
Dijo que tan solo en el primer mes de que Musk adquirió a la compañía, eliminó a la mayoría de las personas que forman parte de los equipos de ingeniería ética e inteligencia artificial y a los contratistas que tenían la tarea de moderar el contenido y eso fue solo en el primer mes.
“Luego pasó a adaptar muchas características de diseño. El mayor cambio fue el estado de la marca de verificación azul, uno de los mejores sellos de autenticidad que ayudó a generar confianza en Twitter. Ahora se ha convertido en una suscripción mensual”, agregó.
Benavidez dijo que otra característica es que se ha convertido en una vulnerabilidad que los malos actores están explotando comprando estas cuentas y su contenido con frecuencia, al menos en las últimas seis semanas.
“Ha contenido algunas de las desinformaciones más gráficas, violentas y engañosas, así como imágenes y contenidos simplemente horribles sobre las cuestiones de Israel y Palestina. Pero se desarrolló en otras crisis. Twitter ha fracasado. Y muchas de las otras empresas también lo han hecho”, señaló.
Añadió que durante el último año, Meta, Twitter y YouTube han despedido a miles de trabajadores de confianza y seguridad y moderadores de contenido.
“Lo cual apunta a dónde residen sus valores porque, en medio de todos los miles de despidos, realmente están despriorizando la salud del contenido en sus plataformas”, comentó.
Benavides explicó que existe una relación muy porosa entre lo que sucede en el lado de las redes sociales y cómo avanza y se integra en nuestros medios de comunicación tradicionales y en los principales medios de comunicación.
“Eso tendrá graves implicaciones de cara a los próximos 12 a 15 meses”, dijo, “Cuando se trata de las protecciones de integridad de la plataforma que las empresas deberían tener implementadas. La plataforma debería reinvertir y reforzar la dotación de personal necesaria para salvaguardar la integridad electoral y confiar en la seguridad y la moderación”, comentó
Meta, Twitter y YouTube han relajado sus políticas de publicidad política, añadió.
“Lo que permitirá que cualquier cantidad de nefastos actores estatales y otros actores externos utilicen de alguna manera esos anuncios políticos como arma dejando espacio para que los usuarios vean contenido que puede contener falsedades u otro tipo de odio, información engañosa sobre lugares de votación o candidatos, cantidades incalculables de información.
“Por lo tanto, todas las empresas deben restablecer las políticas proactivas y protectoras que anteriormente moderaban el contenido relacionado con las elecciones”, expresó. “Esto incluye simplemente un mejor etiquetado, las diversas políticas de desinformación que tenían implementadas y más”.
Dijo que también deberían lanzar intervenciones electorales específicas para 2024 a tiempo para las primarias estadounidenses.
“Eso significa que necesitan contar con protecciones. Al menos en febrero. 2024”, comentó. “Y mantenga esas protecciones vigentes durante el próximo año. La amenaza de insurrección u otro tipo de infiltración no sólo es más aguda durante una semana electoral.
“Sabemos que existen amenazas que pueden ocurrir en varios momentos previos al proceso de certificación electoral y en sus alrededores. Por lo tanto, estas diversas intervenciones en las plataformas deben mantenerse después de las elecciones y hasta la toma de posesión”, recomendó.
Benavidez dijo que una de las principales formas en que personas como Donald Trump y otros líderes pueden explotar las vulnerabilidades en estas plataformas es porque reciben un trato especial.
La escasez de trabajadores electorales
Ramachandrandijo que otra amenaza a la seguridad de cara a las elecciones presidenciales de 2024 que preocupa, es la escasez de trabajadores electorales.
“De hecho, vimos escasez de trabajadores electorales durante la pandemia de 2020. Generalmente las personas mayores solían ofrecerse como voluntarios. Obviamente, la gente pensó que era arriesgado brindar ese servicio durante la pandemia, antes de que estuvieran disponibles las vacunas”, comentó.
Dijo que también puede haber escasez de trabajadores electorales porque se sienten inseguros debido a las amenazas y el acoso, por lo que los estados y los funcionarios electorales toman medidas para mostrarles a los trabajadores electorales que están protegidos y que su seguridad es una prioridad.
“Por eso, varios estados han aprobado leyes que prohíben el doxing de los trabajadores electorales o les permiten inscribirse en programas de confidencialidad de direcciones”, dijo Ramachandran.
La especialista dijo que el Centro Brena les aconseja a los oficiales de elecciones que tengan seguridad y resiliencia en la infraestructura para evitar que haya problemas con máquinas electorales o falta de personal. También explicó que recomiendan que el personal practique qué hacer si hay problemas con el funcionamiento de las máquinas.
Para el 2024 alguna de estas interrupciones, que pueden suceder durante el proceso electoral, dijo que se puede ser utilizadas para mentir sobre lo que está sucediendo.
La experta comentó que no se debe permitir que los problemas se conviertan en algo más grave por interrupciones.