¿Cómo amenaza la IA a los votantes étnicos?

Por Selen Özturk, 17 de julio de 2024, Fuente: ethnicmediaservices.org

A medida que la IA se vuelve más compleja y predominante, los votantes étnicos se enfrentan a un panorama electoral donde la diferencia entre noticias reales y artificiales es cada vez más difícil de medir.

A medida que la inteligencia artificial se vuelve más frecuente, los votantes étnicos se enfrentan a un panorama electoral donde la diferencia entre noticias reales y artificiales es cada vez más difícil de medir.

En una reunión informativa de Ethnic Media Services el viernes 12 de julio, expertos en transparencia de medios digitales y vigilancia política que monitorean el aumento de la desinformación generada por IA discutieron los posibles desafíos para los votantes étnicos en las elecciones nacionales y locales de este año, y sugirieron políticas e iniciativas para combatir el problema.

Desinformación sobre IA

A medida que se acercan las elecciones estadounidenses de noviembre, la desinformación en línea “es un problema muy real, potenciado por la inteligencia artificial, que está surgiendo en nuestra democracia, literalmente, día a día”, dijo Jonathan Mehta Stein, director ejecutivo de California Common Cause, una agencia de vigilancia sin fines de lucro.

“Estas amenazas no son teóricas”, continuó. “Hemos visto elecciones afectadas por deepfakes de inteligencia artificial y desinformación en Bangladesh, Eslovaquia, Argentina, Pakistán e India. Aquí, antes de las primarias, hubo una falsa llamada automática de Joe Biden en New Hampshire diciendo a los votantes demócratas que no votaran”.

Jonathan Mehta Stein, director ejecutivo de California Common Cause, una agencia de vigilancia sin fines de lucro, explica por qué es difícil para las plataformas de redes sociales eliminar contenido que ha sido manipulado por IA, a pesar de los moderadores de contenido y la suspensión frecuente de cuentas.

La semana pasada, el Departamento de Justicia de Estados Unidos también interrumpió una campaña de desinformación rusa que involucraba casi 1.000 perfiles de bots de redes sociales generados por inteligencia artificial que promovían los objetivos del gobierno ruso en X mientras se hacían pasar por estadounidenses en todo el país.

Además, están surgiendo sitios web de noticias locales generados por inteligencia artificial con fines de desinformación dirigidos por Rusia, entre ellos DC Weekly, New York News Daily, Chicago Chronicle y Miami Chronicle.

“La India es un buen ejemplo de lo que podría pasar en Estados Unidos si no nos educamos”, dijo Stein. “Los votantes indios son bombardeados con millones de imágenes ultrafalsas y los candidatos han comenzado a adoptarlas. Se ha creado una carrera armamentista en la que algunos candidatos están utilizando imágenes ultrafalsas de ellos mismos y de sus oponentes, y los candidatos que no quieren usarlas sienten que deben hacerlo para mantenerse al día”.

A medida que el problema empeora, muchas plataformas de redes sociales lo ignoran.

Meta ha hecho que algunas de sus funciones de verificación de datos sean opcionales, mientras que Twitter ha dejado de utilizar el software que utilizaba para identificar campañas de desinformación organizadas. YouTube, Meta y X han dejado de etiquetar o eliminar publicaciones que promueven afirmaciones falsas sobre una elección presidencial robada en 2020. Todas estas plataformas han despedido a una gran parte de sus equipos de desinformación e integridad cívica.

“Las noticias reales son la respuesta a las noticias falsas”, dijo Stein. “Estamos en una era en la que se verifican dos veces las noticias políticas. Si ves una imagen o un video que ayuda demasiado a un partido político o candidato, sal de las redes sociales y mira si se está informando al respecto… Antes de compartir un video de Joe Biden cayendo por las escaleras del Air Force One, por ejemplo, mira si AP, el New York Times, el Washington Post o tu medio local de confianza lo están informando o desacreditando.

Desafíos para las comunidades de color

“En los últimos 12 meses, documentamos más de 600 mensajes de desinformación en las principales redes sociales en idioma chino. Y los dos temas principales son el apoyo o la deificación de Trump y los ataques a Biden y las políticas democráticas”, dijo Jinxia Niu, gerente de programas de participación digital china en la organización sin fines de lucro Chinese for Affirmative Action. “Este año, la desinformación de IA presenta este problema a una velocidad mucho mayor”.

Jinxia Niu, directora del programa de participación digital china en Chinese for Affirmative Action, analiza los desafíos que enfrentan los medios de comunicación étnicos cuando intentan monitorear la desinformación.

“El mayor desafío que enfrenta nuestra comunidad es que nuestros medios de comunicación en otros idiomas a menudo carecen del dinero y el personal para verificar la información”, explicó. “En particular, en nuestras comunidades inmigrantes y de habla inglesa limitada, la alfabetización en inteligencia artificial suele ser casi nula. Ya hemos visto estafas en las redes sociales chinas con falsos influencers de inteligencia artificial que consiguen que sus seguidores compren productos falsos. Imaginen lo peligroso que sería esto con falsos influencers que engañan a sus seguidores sobre cómo votar”.

Si bien la mayor parte de la desinformación política en la comunidad de la diáspora china se traduce directamente de las redes sociales en inglés, Niu dijo que algunos contenidos originales compartidos por personas influyentes chinas de derecha incluyen fotos generadas por IA del expresidente Trump interactuando con partidarios negros y fotos generadas por IA que atacan al presidente Biden al retratar a sus partidarios como “locos”.

“Un gran desafío para la comunidad asiático-estadounidense es que esta desinformación tiende a circular no solo en las redes sociales, sino que también es compartida directamente por personas influyentes, amigos y familiares a través de aplicaciones de mensajería cifrada”, continuó, las más populares son WeChat para los estadounidenses de origen chino, WhatsApp para los estadounidenses de origen indio y Signal para los estadounidenses de origen coreano y japonés.

“Estos chats privados se convierten en una especie de transmisión pública no regulada y sin censura que no se puede controlar ni documentar debido a las protecciones de datos y privacidad bien intencionadas”, explicó Niu. “Se crea un dilema perfecto en el que es difícil, si no imposible, intervenir con información falsa y peligrosa”.

Soluciones

“Sin embargo”, continuó Niu, “estamos tratando de hacer algo al respecto a través de Piyaoba.org”, el primer sitio web de verificación de datos para las comunidades chino-estadounidenses. Por ejemplo, este recurso en idioma “ofrece un cuadro de chat inteligente para enviar nuestras últimas verificaciones de datos a los seguidores en un grupo de chat de Telegram… Pero estas soluciones no son suficientes para el problema mucho más grande que enfrentamos”.

“Creo que uno de los mayores errores de percepción sobre la desinformación es que la gran mayoría de ella viola las reglas de las plataformas de redes sociales. Más bien, cae en una zona gris de ‘engañosa, pero técnicamente no falsa’”, dijo Brandon Silverman, exdirector ejecutivo y cofundador de la plataforma de monitoreo de contenido CrowdTangle, ahora propiedad de Meta.

Brandon Silverman, ex director ejecutivo y cofundador de CrowdTangle (ahora propiedad de Meta), analiza una solución política que, según él, sería eficaz para abordar las noticias falsas y la desinformación.

“Es la diferencia entre decir que la luna está hecha de queso y decir que algunas personas están diciendo que la luna está hecha de queso”, añadió. “En esa zona gris, es muy difícil para las plataformas hacer cumplir algo tan rápidamente como pueden con la información directamente falsa”.

Además, la existencia de cuentas generadas por IA o controladas por extranjeros “no significa que hayan tenido un impacto medible o significativo en un tema o una elección”, explicó. “Uno de los objetivos de las campañas de desinformación es ‘inundar la zona’ con tanto contenido poco confiable que la gente no sepa en qué confiar… Tenemos que encontrar un equilibrio entre ser receptivos, pero también no hacerles el juego haciéndolos parecer tan poderosos que nadie que sepa pueda confiar en ellos”.

A nivel de políticas, Silverman dijo que apoyaba impuestos sobre un cierto porcentaje de los ingresos generados por la publicidad digital en grandes plataformas, para financiar el periodismo étnico y comunitario a nivel local.

Agregó que las grandes organizaciones que actualmente luchan contra la desinformación basada en IA incluyen la Fundación Knight con su Election Hub de servicios gratuitos y subsidiados para salas de redacción de EE. UU. que cubren las elecciones federales, estatales y locales de 2024; y el Centro Brennan con el lanzamiento de Meedan, una organización sin fines de lucro para software e iniciativas de intercambio de noticias contra la desinformación.

“En lugar de responder a contenidos individuales, deberíamos pensar en las narrativas que se difunden constantemente, no solo por parte de bots sino también de personas influyentes reales, y cómo podemos contrarrestar aquellas que sabemos que son falsas”, dijo Silverman.

Leave a Reply

Your email address will not be published.

WP Radio
WP Radio
OFFLINE LIVE