O Veo 3 deu o que falar devido aos vídeos realistas que remontam acontecimentos históricos, simulam um jornal ao vivo e mais publicados em redes sociais. Contudo, especialistas ouvidos pelo Canaltech chamaram a atenção para eventuais riscos que podem surgir com o uso de ferramentas de IA para gerar vídeos, especialmente em relação à desinformação e deepfakes.
O presidente do Instituto Brasileiro para a Regulamentação da Inteligência Artificial (IRIA), Marcelo Senise, aponta que soluções para criar vídeos com IA, como o Veo 3 e o Sora, da OpenAI, podem gerar uma nova avalanche de desinformação visual em conjunto com a textual que já acontece.
“A combinação entre essas ferramentas e redes sociais que operam sob uma lógica algorítmica de engajamento cria o terreno perfeito para o colapso da confiança pública. A crise de legitimidade não virá apenas da mentira, mas da impossibilidade de confirmar a verdade”, prevê Senise.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
As suas previsões estão de acordo com comentários publicados em redes sociais. No X, alguns usuários destacam o impacto que as soluções de IA poderão causar em casos de uso indevido: “A ferramenta levanta possibilidade de crimes a serem cometidos contra famosos, personalidades e durante eleições”, indica um usuário no ex-Twitter.
O Veo 3, nova ferramenta de IA do Google, foi projetado para construir vídeos realistas. Para Raquel Recuero, os resultados são realmente impressionantes e representam riscos profundos de desinformação, assim como grandes desafios para o jornalismo.
— INCT-DSI (@inct_dsi) June 2, 2025
Senise explica que as plataformas para gerar vídeos com IA e redes sociais operam por uma lógica algorítmica de engajamento, o que cria um “terreno perfeito para o colapso da confiança pública”, especialmente com conteúdos que simulam falas de figuras públicas, por exemplo, seja para aplicar golpes ou em um contexto eleitoral.
Vídeo ilícitos podem infringir leis
A possibilidade de gerar vídeos com IA para fins ilícitos pode resultar em uma série de crimes. O advogado especialista em direito digital do escritório Peck Advogados, Henrique Rocha, explica que as consequências jurídicas para os conteúdos gerados por essas ferramentas são expressivas.
“Do ponto de vista jurídico, todos os tipos penais como fraude, desinformação, casos de contratação equivocada, oferta de produtos e serviços realizados com abuso de direito ou eventualmente baseados em propaganda enganosa, são absolutamente aptos a ocorrerem com o uso dessas ferramentas”, aponta o especialista.
Rocha ainda destaca que a legislação brasileira, hoje, já atribui responsabilidade para pessoas que compartilham vídeos criminosos nas redes. O desafio, porém, está na identificação de quem cria o conteúdo que, muita vezes, produz em anonimato.
Em relação às eleições de 2026, o especialista aponta que há uma proibição vigente do Tribunal Superior Eleitoral (TSE) para uso de deepfakes nas campanhas. Além disso, o órgão exige um selo para indicar se algum recurso de IA foi usado em materiais políticos.
Riscos de segurança
O especialista em cibersegurança e membro do Comitê Nacional de Cibersegurança (CNCiber), Rodrigo Fragola, aponta que o lançamento trouxe um componente a mais como risco: o realismo.
“Outras ferramentas anteriores já são exemplo de golpes que visam o roubo de informação e facilitam golpes de phishing“, elenca o especialista.
Fragola também alerta que golpes antigos, como o do parente pedindo dinheiro, devem ganhar uma cara nova com o uso da tecnologia.
O diretor de privacidade e governança da Tripla, João Lucas Saldanha, adiciona que o Veo 3 permite que pessoas com poucos recursos e capacidade técnica consigam criar vídeos complexos, com falas, entonações e gestos, com facilidade.
“A partir disso, abre-se uma série de possibilidades de uso malicioso. Um vídeo falso de um gestor solicitando a liberação de um pagamento, ou de um diretor jurídico autorizando uma quebra de sigilo, por exemplo, pode ser suficiente para induzir um colaborador desatento e destreinado ao cometimento de um erro catastrófico”, lista o diretor.
Segurança digital nas eleições
Apesar de ser em 2026, o período de pré-campanha se aproxima e os riscos que essas ferramentas apresentam, também. O especialista em direito digital, Henrique Rocha, aponta que o Brasil tem arcabouços para garantir um processo eleitoral minimamente aceitável no próximo ano.
O diretor de privacidade da Tripla também aponta que uma tática eficiente para ser feita antes do pleito é uma campanha poderosa, contundente e persistente de conscientização em massa que “vise educar, o máximo possível, eleitores e usuários da rede quanto aos riscos das IAs generativas e acerca do necessário ceticismo diante de conteúdo online”.
O que diz o Google?
Procurado pelo Canaltech, o Google acredita que a “IA tem um grande potencial para possibilitar novas formas de criatividade, democratizar a produção criativa e ajudar as pessoas a expressarem suas visões artísticas”, e frisou que suas regras vetam uma série de usos nocivos da ferramenta.
“Nossas políticas restringem o uso de nossos modelos para atividades sexualmente explícitas, violentas, odiosas ou prejudiciais, como discurso de ódio ou bullying, e para desinformação, deturpação ou atividades enganosas, incluindo fraudes, golpes ou outras ações enganosas como a falsificação de identidade, entre outras”, disse em nota.
Ainda segundo a companhia, a tecnologia SynthID permite descobrir a origem de vídeos espalhados pela internet ao inserir “marcas d’água digital em todos conteúdos gerados por modelos de IA generativa do Google”.
Leia mais:
- Qual é a diferença entre IA generativa e agentes de IA?
- Vídeos de ‘bebês reborn’ viralizam, mas ‘troca de rosto’ com IA traz riscos
- DeepSeek, Qwen e mais: conheça 5 IAs chinesas
VÍDEO: Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?
Leia a matéria no Canaltech.
Fonte: Canaltech - Leia mais