X

La Inteligencia Artificial y las Elecciones de EE. UU. de 2024: Mitos y Realidades

La Inteligencia Artificial y las Elecciones de EE. UU. de 2024: Mitos y Realidades
Miércoles 25 Diciembre 2024 - 14:33
Zoom

A medida que se desarrollaban las elecciones presidenciales de EE. UU. de 2024, una pregunta se mantenía en el aire: ¿la inteligencia artificial (IA) influiría en el resultado? Esta fue la primera elección en la era de las herramientas de IA ampliamente accesibles, que permitían la creación de medios sintéticos como imágenes, audios y videos, a veces utilizados para la manipulación. Poco antes de las elecciones, se realizó una llamada automatizada en New Hampshire con una voz generada por IA que imitaba al presidente Joe Biden, lo que llevó a la Comisión Federal de Comunicaciones a actuar rápidamente y prohibir el uso de voces generadas por IA en las llamadas automatizadas.

Este incidente se convirtió en un punto de inflexión en el debate sobre el impacto de la IA en las elecciones. Dieciséis estados aprobaron legislaciones que regulaban el uso de la IA en campañas políticas, exigiendo, en muchos casos, que se incluyeran avisos claros en los contenidos generados por IA cerca del día de las elecciones. La Comisión de Asistencia Electoral, una agencia federal que apoya a los administradores electorales, publicó una “caja de herramientas sobre IA” con pautas sobre cómo los funcionarios electorales debían abordar los desafíos generados por la desinformación impulsada por la IA. Además, los estados crearon recursos para ayudar a los votantes a distinguir entre contenido auténtico y generado por IA.

Los expertos habían advertido sobre el potencial de la IA para crear deepfakes—videos y audios que podrían engañar a los votantes haciendo que figuras políticas parezcan decir o hacer cosas que nunca dijeron ni hicieron. Las preocupaciones iban más allá de los problemas internos, advirtiendo que los adversarios extranjeros podrían aprovechar la IA para influir en la opinión pública. Sin embargo, los temores de que la desinformación generada por IA inundara las elecciones no se materializaron en gran medida.

Cuando llegó el día de las elecciones, la desinformación siguió siendo un tema dominante, pero se basó principalmente en técnicas tradicionales. Circulaban ampliamente afirmaciones sobre el conteo de votos, las boletas por correo y las máquinas de votación, pero el contenido fue en su mayoría creado mediante métodos tradicionales como publicaciones basadas en texto e imágenes sacadas de contexto. “Esta no fue ‘la elección de la IA’”, afirmó Paul Barrett, subdirector del Centro de Negocios y Derechos Humanos de la Universidad de Nueva York. “La IA generativa no fue necesaria para engañar a los votantes.”

El profesor Daniel Schiff de la Universidad de Purdue coincidió con este sentimiento, afirmando que no hubo una “campaña masiva de última hora” que engañara a los votantes o influyera en los lugares de votación. Señaló que, si bien existió desinformación, era poco probable que fuera un factor decisivo en la carrera presidencial.

La desinformación generada por IA que más atrajo atención generalmente apoyaba narrativas existentes en lugar de crear afirmaciones nuevas para engañar a la gente. Por ejemplo, después de que el expresidente Donald Trump y su compañero de fórmula hicieran afirmaciones falsas sobre haitianos supuestamente comiéndose mascotas en Springfield, Ohio, imágenes y memes generados por IA sobre el abuso animal se esparcieron por internet, reforzando la narrativa sin necesariamente crear nueva información falsa.

Mientras tanto, los esfuerzos por reducir el impacto negativo de la IA en las elecciones ganaron impulso. Los riesgos que la IA podría presentar para las elecciones motivaron una respuesta colectiva de gobiernos, defensores públicos e investigadores. Schiff observó que la atención dedicada a los posibles daños de la IA resultó en medidas de protección efectivas, lo que ayudó a minimizar los riesgos.

Las plataformas de redes sociales también tomaron medidas. Meta, que es propietaria de Facebook, Instagram y Threads, exigió que los anunciantes revelaran el uso de IA en los anuncios políticos, mientras que TikTok introdujo mecanismos para etiquetar el contenido generado por IA. OpenAI, la empresa detrás de ChatGPT y DALL-E, prohibió el uso de sus herramientas en campañas políticas, limitando aún más el potencial de la IA para influir en las elecciones.

A pesar de estas salvaguardias, las técnicas tradicionales de desinformación seguían siendo las más efectivas. Siwei Lyu, profesor de informática y perito en forense de medios digitales, explicó que los métodos tradicionales de difundir falsedades seguían siendo más efectivos que los medios generados por IA. La investigación también mostró que las imágenes generadas por IA no lograron la misma viralidad que los memes tradicionales, aunque ambos tipos de contenido podían generar atención.

Al final, figuras prominentes con grandes seguidores, como Trump, difundieron desinformación sin depender del contenido generado por IA. Sus afirmaciones falsas sobre inmigrantes ilegales votando fueron amplificadas a través de discursos, entrevistas con medios y publicaciones en redes sociales, ayudando a moldear la opinión pública a pesar de la falta de influencia de la IA.

Aunque el papel de la IA en las elecciones de 2024 no fue tan significativo como algunos habían predicho, la lucha continua contra la desinformación sigue siendo fundamental. Las elecciones pusieron de manifiesto la compleja interacción entre tecnología, política y percepción pública, lo que subraya la necesidad de vigilancia para gestionar los riesgos que las nuevas tecnologías presentan en el panorama político.

Añade tu comentario

300 / Caracteres restantes 300
Condiciones de publicación : No insultes al autor, a las personas, a los lugares sagrados, ni ataques religiones o la divinidad, evita incitación racista e insultos

Comentarios (0)

Las opiniones expresadas en los comentarios reflejan solo las de sus autores y no las de Lou.Press

Leer más