YouTube vuelve a dar un golpe en la mesa contra la IA. Acaba de cerrar dos canales que la usaban para crear tráilers de películas falsos

Es evidente que hay que proteger mejor el contenido original

Imagen falsa de 'Los Cuatro Fantásticos: Primeros pasos'
5 comentarios Facebook Twitter Flipboard E-mail
belen-prieto

Belén Prieto

Editora

YouTube ha dado un golpe en la mesa contra el fenómeno de los tráilers falsos generados por inteligencia artificial. Acaba de cerrar los que eran dos de los canales más conocidos en este campo: Screen Culture y KH Studio, que entre los dos sumaban más de 2 millones de suscriptores y más de mil millones de visualizaciones.

Durante años, estos canales se habían convertido en un referente para quienes buscaban primicias de tráilers de películas muy esperadas, desde supuestas secuelas de sagas populares hasta reboots imposibles. Sin embargo, lo que comenzó como un experimento terminó siendo una fuente de confusión y desinformación para los espectadores, y su cierre evidencia la creciente preocupación de YouTube por los contenidos engañosos.

Los gigantes de los tráilers falsos

La medida llega después de que Deadline realizara una investigación que reveló cómo Screen Culture y KH Studio explotaban algoritmos de YouTube para posicionar sus tráilers falsos por encima de los oficiales. Desde la creación de versiones de 'Los Cuatro Fantásticos: Primeros pasos' hasta supuestas series de Harry Potter y 'Miércoles' de Netflix, los canales mezclaban material real con imágenes generadas por IA para dar la sensación de que eran lanzamientos legítimos.

A principios de este mismo año, YouTube ya había suspendido temporalmente la monetización de ambos canales tras la misma investigación, aunque posteriormente los creadores agregaron etiquetas como "tráiler de fan", "parodia" o "tráiler conceptual" para seguir generando ingresos y esquivar el problema. Sin embargo, recientemente desaparecieron estas advertencias y esto llevó a YouTube a cancelarlos definitivamente.

Los fundadores de los canales defendieron su trabajo como un experimento creativo y un entretenimiento para fans, señalando que su equipo desarrollaba múltiples versiones de los tráilers para interactuar con el algoritmo de YouTube y maximizar su visibilidad. Nikhil P. Chaudhari, de Screen Culture, reconoció que combinaban material oficial con imágenes de IA, creando un producto que engañaba a muchos espectadores, pero que para ellos formaba parte de un esfuerzo pionero en la explotación de esta tecnología.

Imagen de otro tráiler falso

Además, la investigación de Deadline puso de manifiesto que varios estudios de Hollywood, incluidos Warner Bros. Discovery y Sony, permitieron indirectamente que estos canales monetizaran sus contenidos y Disney también participó en el asunto enviando una carta de cese y desistimiento a Google, alegando que los modelos de IA usados por los canales violaban sus derechos de autor, lo que deja evidencia de la complejidad legal y ética que rodea al uso de inteligencia artificial para recrear a partir de un material que debería estar más protegido.

En Espinof | Crunchyroll no quiere ser Amazon y aclara su posición sobre el uso de la IA en el anime: "La parte creativa está 100% preservada"

En Espinof | Disney se deja llevar por el furor de la IA permitiendo que OpenAI utilice 200 personajes suyos y gastándose un auténtico dineral

Inicio