¿Has estado escuchando música de tu artista favorito haciendo covers? Pues si buscas, de inmediato, en YouTube cualquier tipo de audio, te aparecerán varios resultados, e incluso te confundirás por saber si es real o no. Es tan similar que, a veces, es difícil distinguir.
Ahora, al parecer, Google quiere eliminar todo contenido generado con la IA, en especial aquellos que usan la voz o la imagen de alguien sin autorización. Esto también nace luego de que diversidad de artistas manifestaran estar en contra de que se produzcan canciones utilizando sus voces. ¿Será el fin? Aquí te cuento qué cosas más restringirá YouTube.
En los últimos días, YouTube ha actualizado sus políticas de uso para permitir a los usuarios denunciar que se ha empleado una imagen suya o su voz para generar contenido mediante Inteligencia Artificial (IA) sin su consentimiento.
Una vez alguien lo haga, el creador de ese video tiene un plazo de 48 horas para eliminar dicho contenido o, de lo contrario, será sancionado. Este es un punto que a muchos les ha caído como balde de agua fría, pues la medida es bastante seria, y permite proteger la seguridad de las personas.
Los únicos videos que se salvarán de esta medida son los identificables “de manera única” y haya “suficiente información en el clip” que permita a otras personas reconocerles. El creador puede emplear las diversas herramientas de edición que ofrece la plataforma de YouTube como ‘Recortar’ o ‘Desenfocar’.
En caso haya caso omiso, el equipo de Google se encargará de revisar tu apelación, según ha explicado en su página web de soporte. Cabe precisar que no aceptará reclamaciones realizadas en nombre de terceros, excepto si la persona cuya privacidad está siendo violada no tiene acceso a internet o a un ordenador, si está en situación de vulnerabilidad o si se trata de un menor, entre otros escenarios.
Contenido GEC