Este video de TikTok es falso, pero cada palabra proviene de un creador real

Investigadores y usuarios de TikTok advierten sobre otro tipo de engaño en la popular aplicación de videos: los videos deepfake que copian las palabras exactas de un creador real, pero en una voz diferente.
Una nueva forma de engaño digital
En la última semana, millones de TikTokkers han visto una versión de un video que afirmaba falsamente que "se están instalando incineradores en Alligator Alcatraz", refiriéndose a una teoría de conspiración de internet sobre un centro de detención de inmigrantes en los Everglades de Florida, que se propagó a pesar de no existir evidencia.

Crédito: Bronson Arcuri/NPR/@aliunfiltered_
Impacto de los deepfakes
Los investigadores que estudian los deepfakes —imágenes y videos generados por IA con tal realismo que pueden engañar a las personas— indican que esta duplicación puede representar una nueva manera en que se está utilizando la IA para engañar: hacer que la IA recite las palabras exactas de una persona real, incluyendo tropiezos y pausas.
Experiencias de creadores
Ali Palmer, una creadora de contenido en Dallas, Texas, cuyo nombre de usuario en TikTok es @aliunfiltered_, hizo un video sobre un padre que saltó de un crucero de Disney para salvar a su hijo. Este video fue plagiado, usando sus palabras exactas en un video creado con IA.
Palmer mencionó que aunque la copia de contenido en TikTok es común, los cuentas que usan IA para replicar sus palabras son algo nuevo: "Es desconcertante. Se siente como una violación de la privacidad", comentó.
La respuesta de TikTok
Si bien usar IA para copiar videos no parece violar las políticas de TikTok, la plataforma sí menciona que requiere que los usuarios "etiqueten todo el contenido generado por IA que contenga imágenes, audio y video realistas". Los videos plagiados que NPR identificó no están etiquetados como generados por IA.
Consejos para el usuario
De acuerdo con Alex Hendricks, un usuario que vio estos videos, la replicación de contenido en TikTok es común, pero estos videos le parecieron inusuales porque las monólogos eran sorprendentemente idénticos, a pesar de tener voces diferentes. "La mejor recomendación es no creer nada de lo que ves y corroborar todo antes de compartirlo," aconsejó.
Conclusiones
Con la IA haciendo que el robo de contenido sea más fácil, los investigadores sugieren que esto puede ser una táctica utilizada no solo por usuarios comunes, sino también por actores respaldados por estados para influir en la opinión pública a través de desinformación.
Suscríbete a nuestro boletín para recibir contenido más especializado.
Comments ()