WASHINGTON – O Sora, novo aplicativo de inteligência artificial da OpenAI, tornou-se o programa mais baixado no iPhone e chamou atenção por permitir que qualquer usuário insira rostos e vozes reais em vídeos gerados por IA em poucos minutos.
Para usar o recurso, basta gravar um curto vídeo de selfie. O aplicativo cria um “cameo” – perfil digital do rosto – e oferece três níveis de compartilhamento: apenas o proprietário, amigos ou toda a comunidade do Sora. Quem tiver acesso digita um roteiro simples e recebe o vídeo pronto em questão de minutos.
Apesar de exigir consentimento inicial para o uso da imagem, o sistema não prevê aprovação prévia do conteúdo. O proprietário só recebe uma notificação depois que o material já foi gerado. É possível deletar o vídeo dentro do próprio Sora, mas o autor pode ter feito download ou repostado em outras plataformas antes disso.
O colunista de tecnologia Geoffrey A. Fowler, do Washington Post, forneceu seu rosto ao colega Chris Velazco para testar a ferramenta. Entre os resultados, surgiram cenas em que Fowler aparecia sendo preso por dirigir bêbado, queimando uma bandeira dos Estados Unidos ou admitindo hábitos estranhos, todas falsas, porém visualmente convincentes.
Em um dos clipes, o ex-presidente Ronald Reagan nomeava Fowler para um conselho fictício; em outro, um chef de reality show o repreendia por um prato ruim. O jornalista relatou que o realismo das expressões, da movimentação labial e até da voz era “assustador”.
A experiência mudou de tom quando Velazco criou um vídeo em que Fowler contava uma piada ofensiva no escritório. Embora fosse falso, o conteúdo soava plausível o suficiente para gerar dúvidas sobre sua veracidade, expondo o risco de danos à reputação.
A ONG Electronic Frontier Foundation, representada pela diretora de cibersegurança Eva Galperin, alertou para o impacto do recurso em populações vulneráveis. Segundo ela, falsos flagrantes de crimes ou comportamentos inadequados podem ser usados para assédio ou extorsão.
Hany Farid, professor da Universidade da Califórnia em Berkeley e especialista em mídia sintética, criticou a ausência de filtros robustos. “Tornar o produto mais seguro o deixaria menos viral, e ninguém quer isso”, afirmou.
Imagem: redir.folha.com.br
Em nota, a OpenAI declarou que o usuário “tem controle total sobre sua imagem” e afirmou estar aprimorando as ferramentas de segurança. Após críticas, o Sora passou a permitir que cada pessoa escreva diretrizes específicas sobre como deseja ser retratada e adota marca-d’água visível para indicar que o vídeo é artificial. Designers, no entanto, demonstraram retirar a marca em poucos minutos com software de edição.
Por padrão, o aplicativo libera o cameo para “amigos em comum”, grupo que inclui qualquer perfil seguido reciprocamente, configuração que muitos usuários desconhecem. Alterar para “somente eu” corta o aspecto social da plataforma, mas impede terceiros de criar novos vídeos com o rosto cadastrado. A exclusão do cameo não remove produções já existentes.
O CEO da OpenAI, Sam Altman, manteve seu cameo aberto e apareceu em diversos clipes humorísticos na primeira semana de funcionamento do Sora. Já a criadora de conteúdo Justine Ezarik, conhecida como iJustine, foi alvo de vídeos com conotação sexual e passou a monitorar e apagar postagens que extrapolam limites.
Especialistas temem que golpistas explorem a ferramenta para simular pedidos de ajuda financeira ou incriminar falsamente colegas de escola ou trabalho. Para a criadora Jules Terpak, liberar o cameo apenas para amigos pode reduzir riscos, mas ela ressalta ser prudente pedir autorização extra antes de publicar qualquer vídeo envolvendo terceiros.
Depois da experiência, Fowler limitou seu cameo à opção “somente eu” para evitar novas surpresas. “Amigos não permanecem amigos para sempre”, lembra Eva Galperin, chamando atenção para a necessidade de políticas mais rigorosas de consentimento digital.