⚠️Atenção
Você viu um vídeo chocante? Uma imagem perfeita demais? Um áudio polêmico de uma figura pública? Cuidado. Pode não ser real. A inteligência artificial está cada vez mais capaz de gerar conteúdos falsos — e enganar até olhos treinados.
Saber se um conteúdo (vídeo, imagem, áudio ou texto) foi manipulado por inteligência artificial (IA) está cada vez mais importante — e também mais difícil. No entanto, há ferramentas, técnicas e sinais que podem ajudar a identificar conteúdos gerados ou alterados por IA. Aqui vai um guia prático:
1. Sinais Visuais em Imagens/Vídeos
Imagens:
- Mãos deformadas ou com dedos extras.
- Olhos desalinhados, reflexos estranhos, ou
pupilas duplicadas. - Textos distorcidos em placas, rótulos ou
camisetas. - Fundo incoerente ou borrado (por exemplo,
rostos no fundo que parecem derretidos). - Simetria exagerada ou repetição de padrões.
Vídeos:
- Sincronização labial ruim (lábios não combinam
com a fala). - Movimentos faciais robóticos.
- Pele sem textura natural ou com suavização
excessiva. - Falhas em transições de cenas ou cortes estranhos.
2. Uso de Ferramentas de Detecção de IA
Você pode usar sites que analisam
arquivos e identificam se foram gerados por IA:
- Imagem:
- Vídeo:
- Deepware
Scanner - Sensity
AI (especializada em deepfakes)
- Deepware
- Texto:
3. Metadados e Proveniência
- Imagens e vídeos originais geralmente mantêm
metadados (como modelo da câmera, data e local). - Use ferramentas como:
- FotoForensics
— análise de erros e metadados. - Verifique se a imagem tem marcas d’água ocultas
(alguns geradores como DALL·E, Google e OpenAI incluem essas marcas
digitais).
- FotoForensics
4. Verificação Reversa
- Faça pesquisa reversa de imagem:
Isso ajuda a verificar se aquela
imagem ou vídeo já foi usado antes, em outro contexto.
5. Contexto e Fonte
- Desconfie de conteúdos virais ou chocantes que
circulam sem fonte confiável.Verifique:- Quem publicou? É um veículo de confiança?
- Há versões diferentes da mesma imagem?
- A pessoa ou instituição mencionada confirmou
- IA muitas vezes erra em coisas simples:
- Nome de cidades inexistentes.
- Acontecimentos que nunca ocorreram.
- Falas fora do tom usual da pessoa pública
retratada.
❗ Dica extra: marcas invisíveis estão chegando
Grandes empresas (Google, Meta, OpenAI, Adobe) estão implementando “Content Credentials” — uma espécie de selo digital que acompanha a imagem ou vídeo e diz se foi gerado por IA. Mas isso ainda não é padrão universal.