YouTube vai obrigar usuários a identificar vídeos feitos com IA
A intenção da plataforma é evitar a confusão de vídeos manipulados e fictícios com eventos, locais e pessoas reais.
O YouTube passou a exigir dos criadores a inclusão
de um aviso na publicação de conteúdos realistas feitos com inteligência
artificial (IA). A intenção da plataforma é evitar a confusão de vídeos
manipulados e fictícios com eventos, locais e pessoas reais.
Agora, durante a publicação de vídeos, o criador é
obrigado a indicar, com sim ou não, se o conteúdo faz uma pessoa real dizer ou
fazer algo que ela não fez, se altera algum registro visual, evento real ou
lugar e se gera uma cena realista que nunca existiu. Ao selecionar sim, um
aviso de que o conteúdo é sintético ou alterado aparece na descrição do vídeo em
questão.
O sistema se baseia na honestidade do usuário em
declarar o conteúdo de seu vídeo. Contudo, o YouTube afirma que pode adicionar
um aviso mesmo se o criador não o fizer. Outros rótulos serão incluídos em
vídeos com conteúdos sensíveis como saúde, eleições e finanças.
A medida, que foi implementada nesta segunda-feira,
18, foi originalmente anunciada em novembro de 2023 na forma de uma atualização
das políticas do YouTube para conteúdos baseados em IA. Vídeos gerados por IA
mas que não usam a aparência ou voz de uma pessoa real nem alteram eventos ou
locais reais, não são afetados pela medida.
Outro recurso mencionado em novembro mas que ainda
não foi implementado na última atualização da plataforma é a possibilidade de
uma pessoa comum solicitar um pedido de avaliação em vídeos de deepfake que
usam sua imagem.