La personalización de las redes sociales ha ampliado el alcance y el poder de la desinformación.
Popularizado por el crecimiento de TikTok y su apartado «Para ti» —un flujo infinito de contenidos basados en los intereses de los usuarios, determinados por la información obtenida de los historiales, interacciones y ubicación—, plataformas como Instagram, YouTube y X han adoptado el modelo y creado sus propias versiones. Instagram comenzó a mostrar publicaciones recomendadas en su feed en 2018, y en 2020 implementó Reels, una función de video corto similar a TikTok. YouTube introdujo Shorts, un concepto parecido, ese mismo año, y X añadió la pestaña «Para ti» a principios de 2024.
Estos desarrollos han transformado el modo en que los usuarios consumen contenidos en las redes, dice Sejin Paik, directora de producto de TrueMedia.org. «No importa a quién sigas, el sistema va a mostrarte lo que interprete que es relevante para ti», dice.
En este entorno digital, la información falsa coexiste con contenido real, lo que facilita la difusión de deepfakes —imágenes o videos hiperrealistas manipulados artificialmente para mostrar a alguien haciendo o diciendo algo. De cara a las elecciones estadounidenses de 2024, aparecieron deepfakes que mostraban discursos inexistentes, imágenes de los guardaespaldas del Servicio Secreto de Donald Trump sonriendo tras un supuesto tiroteo, y capturas de pantalla de noticias falsas sobre el proceso electoral.
A medida que las tecnologías de IA generativa se desarrollen, sean más fáciles de usar y más accesibles, cada vez será más difícil calibrar la autenticidad de las publicaciones que circulan en redes sociales. Una herramienta de detección de IA creada por TrueMedia busca ayudar a identificar indicios de manipulación en imágenes y videos virales.
Deepfakes y desinformación
El experto en inteligencia artificial Oren Etzioni fundó TrueMedia en enero de 2024, motivado por su preocupación por el impacto de la IA en un año electoral. Organización sin fines de lucro conformada por investigadores, ingenieros y científicos sociales, TrueMedia busca crear tecnología que aborde problemas sociales, lo que Paik denomina «sociotecnología».
A medida que las tecnologías avanzan y se vuelven más accesibles, los contenidos generados artificialmente han proliferado como herramientas de manipulación política.
El modelo «Para ti» da un mayor alcance a la desinformación más sofisticada, dice Paik. Las publicaciones ganan tracción aprovechando los algoritmos que deciden qué es popular, independientemente de las cuentas que estén detrás. La información presentada en los feeds de los usuarios suele ajustarse a sus intereses y creencias, y el contenido mostrado —real o no— se personaliza para conseguir likes y compartidos que amplíen las redes que tocan.
Los deepfakes tienen un enorme potencial en ese entorno. Pueden representar cualquier cosa, desde el Papa Francisco con ropa de diseño hasta noticieros enteros falsos, y su uso está aumentando exponencialmente: en 2023 se compartieron más de 500.000 deepfakes. Y, por muy extendidos que estén, los periodistas afirman que la revolución de la IA no ha hecho más que empezar.
Detectar deepfakes
Los periodistas pueden utilizar el detector de falsificaciones de TrueMedia para identificar si un video o una imagen han sido creados con IA.
La herramienta es sencilla: los usuarios envían el enlace de una red social al detector, que pasa el contenido por varios programas de detección de IA creados por empresas tecnológicas asociadas para determinar el porcentaje de probabilidad de que el contenido se haya generado artificialmente.
La herramienta no es capaz de detectar todos los contenidos falsos, advierte Paik. Por ejemplo, tiene dificultades para detectar «cheapfakes», es decir, fotos o videos engañosos creados con programas de edición que no son de IA. Los desinformadores también han aprendido algunos trucos, como superponer deepfakes sobre contenidos reales, para eludir el proceso de detección.
A medida que aumente la potencia de la IA, también lo harán las herramientas que la detectan. «Estamos lejos de poder acertar el 100% de las veces, pero esta es una de esas formas muy inteligentes de acercarnos», señala Paik. «Si la gente está creando deepfakes con IA, vamos a utilizar la propia IA para combatirlo».
Detección y periodismo
Mientras el torrente de contenidos falsos sigue inundando inevitablemente las redes sociales, Paik insta a los periodistas a no confiar únicamente en las herramientas de detección para combatir deepfakes. También deben investigar las fuentes, las motivaciones y el impacto de la desinformación.
Por ejemplo, tras los recientes huracanes en Estados Unidos proliferaron contenidos generados con IA que mostraban comunidades inundadas y destruidas. Algunos de los que compartieron estas imágenes y videos sabían que eran falsos, incluidos funcionarios políticos, pero consiguieron evocar respuestas emocionales con ellos. Además, esos contenidos se utilizaron para difundir afirmaciones inexactas sobre la respuesta del gobierno a los desastres.
Para Paik, lo más importante es que los periodistas piensen por qué esas publicaciones falsas se convierten en tendencia y trabajen para contrarrestar esas narrativas más allá de la mera comprobación de la exactitud de un video.
«No basta con decir: ‘Detectamos que es falso’ Los periodistas tienen el poder de informar y educar al público. Tenemos que hacerlo».
Amritha R Warrier & AI4Media / Better Images of AI / tic tac toe / Licencia de CC-BY 4.0.
ijnet.org