Inteligência Artificial

Canguru de apoio emocional no aeroporto: vídeo feito por IA viraliza nas redes sociais

Também conhecidos como deepfakes, conteúdos falsificados criam a ilusão de que alguém disse ou fez algo que jamais ocorreu — como levar um canguru para o aeroporto

'Canguru de apoio emocional': vídeo feito por IA viralizou nas redes sociais (TikTok/Reprodução)

'Canguru de apoio emocional': vídeo feito por IA viralizou nas redes sociais (TikTok/Reprodução)

Publicado em 29 de maio de 2025 às 07h13.

Última atualização em 9 de junho de 2025 às 08h08.

Tudo sobreInteligência artificial
Saiba mais

Um canguru de apoio emocional é impedido de entrar no avião com a dona: parece o começo de uma piada ou de uma esquete de um programa de comédia, mas aconteceu. É claro que não de verdade. O vídeo que tem viralizado nas redes sociais não a de mais uma produção cada vez mais realista feita com inteligência artificial (IA).

Também conhecidos como deepfakes, esses conteúdos falsificados substituem o rosto ou a voz de uma pessoa pela de outra em vídeos ou gravações, criando a ilusão de que alguém disse ou fez algo que jamais ocorreu.

A produção dos deepfakes utiliza técnicas avançadas, como as Redes Adversariais Generativas (GANs), que envolvem dois sistemas de inteligência artificial — o gerador, responsável por criar as imagens falsas, e o discriminador, que avalia sua autenticidade. Esses sistemas trabalham em conjunto, aprimorando continuamente a qualidade das falsificações ao aprender com vastos bancos de dados de imagens, vídeos e áudios reais.

https://www.tiktok.com/@yagirlgabby_/video/7509214607869840683?q=kangaroo%20airport&t=1748510945685

Perigo constante

Estudos recentes e discussões acadêmicas destacam como os perigos desses vídeos têm aumentado nos últimos anos.

Na University of Maryland, durante o TechFest 2025, especialistas ressaltaram que deepfakes conseguem replicar vozes e imagens com poucos dados, facilitando fraudes financeiras, prejuízos à reputação e desafios legais.

A professora Minoo Modaresnezhad enfatizou que “os estudantes aprenderam sobre os desafios éticos, vieses e preocupações com privacidade ligados à IA e segurança cibernética, reconhecendo que a tecnologia sozinha não é suficiente para proteger contra esses riscos.”

O impacto dessas tecnologias já é visível.

Professores da West Virginia University, Laurel Cook e Amy Cyphert, em um artigo publicado no site da universidade, destacam que conteúdos gerados por IA influenciam eventos políticos, citando robocalls usando a voz do presidente Joe Biden para enganar eleitores.

“[Deepfakes] são muito preocupantes porque tendemos a confiar em vídeo e som como provas suficientes para acreditar no que vemos e ouvimos”, diz Cook.

Ainda segundo Cook,  “[em deepfakes] tendemos a confiar em vídeo e som como provas suficientes para acreditar que estamos vendo ou ouvindo algo real", o que deixou de ser verdade com a evolução das IAs.

"As abordagens comuns para atrair engajamento incluem o uso de apelos emocionais, especialmente aqueles que incitam a raiva, dividindo o público e sendo exagerados, como o uso proposital de pronúncias incorretas. Além disso, esse tipo de conteúdo pode incluir o roubo ou distorção de informações disponíveis publicamente. Essas táticas costumam ser combinadas com conteúdos deepfake projetados para provocar uma resposta imediata, geralmente na forma de boca a boca, que os mecanismos de busca e algoritmos das redes sociais recompensam amplamente. Esse resultado também pode afetar negativamente o retorno financeiro daqueles que publicam conteúdo original. Quando essas táticas são usadas, o consumo saudável desse tipo de conteúdo deve incluir checagem dos fatos e/ou triangulação de fontes", explicou.

Até mesmo o Departamento de Segurança Interna dos EUA já se posicionou sobre os vídeos feitos por IA.

O departamento aponta que deepfakes são usados em operações maliciosas, pornografia não consensual e ataques de engenharia social.

Em documento divulgado pela instituição americana, Dr. Matthew Wright, professor do Rochester Institute of Technology, alerta que “deepfakes são mais visualmente impactantes, precisos e em maior resolução” do que os antigos “cheapfakes,” tornando-os mais difíceis de detectar — e ainda mais perigosos.

É a diferença entre uma calculadora e um computador; o computador é exponencialmente mais poderoso e capaz de fazer todas as coisas; mais potente para o que você pode fazer; mais visualmente impactante, preciso e em maior resolução; tudo que você pode fazer com ‘cheap fakes’ pode ser feito com deepfakes, porém de forma mais convincente", afirmou Wright. “Enfrentamos um outro problema que é, à medida que as pessoas se tornam mais conscientes da tecnologia, isso se torna uma oportunidade para o que chamamos de ‘dividendo dos mentirosos’, em que alguém pode realmente dizer algo que não deveria ou fazer algo que não deveria ser gravado, e então dizer: ‘Não, isso não é real, isso é falso'", disse.

No relatório do World Economic Forum de 2025, são destacados dois grandes riscos das deepfakes: assédio — como pornografia não consensual e chantagem — e golpes de engenharia social, como clonagem de voz para fraudar pessoas e empresas.

Um caso emblemático envolveu um funcionário financeiro em Hong Kong que pagou US$ 25 milhões após uma chamada no Zoom com participantes deepfakes.   

A visão de Bill Gates

O fundador da Microsoft, Bill Gates, reconhece os riscos da tecnologia, mas vê possibilidades de controle.

“Deepfakes e a desinformação gerada por IA podem minar eleições e a democracia. A ideia de usar tecnologia para espalhar mentiras não é nova… Estamos no estágio inicial de outra mudança profunda, a Era da IA", disse ele.

Além disso, Gates já foi alvo de vídeos deepfake, o que exemplifica os perigos dessa tecnologia. Um caso notório foi um vídeo viral em que ele aparecia sendo interrogado sobre temas polêmicos, mas, na verdade, sua imagem e voz foram manipuladas por IA para criar uma entrevista falsa.

Gates destaca ainda que, apesar dos riscos reais apresentados pela IA e pelos deepfakes, esses desafios podem ser gerenciados por meio de supervisão adequada, tecnologias de detecção e uso responsável da inteligência artificial.

Para o bilionário, a situação é semelhante às inovações anteriores, como os automóveis, que exigiram leis e padrões de segurança.

Como identificar imagens geradas por IA

Com a popularização de ferramentas como Midjourney, DALL-E e Stable Diffusion, identificar imagens falsas se tornou mais difícil — mas não impossível. Existem técnicas e ferramentas que ajudam a reconhecer padrões artificiais:

  1. Atenção aos detalhes visuais
    Use o zoom para procurar por distorções. IA frequentemente comete erros em mãos, olhos, dentes e simetrias . Texturas estranhas, órios assimétricos e sombras incoerentes também são pistas.

  2. Marcas d’água e artefatos ocultos
    Algumas imagens carregam marcas discretas deixadas pelos próprios modelos geradores. Embora possam ser removidas, sua presença é um indício de origem sintética.

  3. Busca reversa no Google
    Ferramentas como Google Imagens ajudam a identificar a origem e o contexto de uma foto. Se ela só aparece em perfis anônimos ou montagens, o alerta deve ser ligado .

  4. Detecção automatizada
    Plataformas como AI or Not, Deepware Scanner e Forensically permitem verificar metadados, analisar padrões de compressão e detectar manipulações.

  5. Verificação contextual
    Se a imagem estiver atrelada a um evento, vale procurar por registros em veículos jornalísticos confiáveis. A ausência de cobertura é, muitas vezes, sinal de fraude.

Como identificar vídeos feitos por inteligência artificial (IA)

  1. Inconsistências visuais

    • Fique atento a objetos ou pessoas que aparecem e desaparecem de forma inesperada.

    • Note mudanças estranhas nas formas, bordas borradas ou falhas nos contornos.

    • Observe sombras e iluminação que não combinam ou são inconsistentes ao longo do vídeo.

  2. Movimentos não naturais

    • Movimentos bruscos, mecânicos ou descoordenados, principalmente em gestos, piscadas e expressões faciais, são sinais de manipulação.

    • Piscadas muito raras ou em excesso e expressões que não condizem com o contexto podem indicar deepfake.

  3. Sincronia labial

    • Verifique se o movimento dos lábios acompanha corretamente o áudio.

    • A falta de sincronização entre o som e o movimento labial é um dos indícios mais claros de vídeo manipulado.

  4. Textura da pele e detalhes faciais

    • Procure por brilhos incomuns na pele ou ausência de detalhes naturais, como rugas, poros e manchas.

    • Desníveis de cor entre o rosto e outras partes do corpo também podem indicar edição artificial.

  5. Qualidade do áudio

    • Ruídos de fundo excessivos, cortes abruptos ou variações estranhas na voz podem ser pistas de áudio gerado, ou editado por IA.

  6. Expressões e emoções desconexas

    • Observe se as expressões faciais estão alinhadas com o conteúdo falado.

    • Por exemplo, uma pessoa aparentando felicidade ao dar uma notícia triste pode ser um sinal de manipulação.

  7. Verificação da fonte e contexto

    • Sempre confirme se o vídeo foi publicado por fontes confiáveis e oficiais.

    • Busque validação em veículos de comunicação reconhecidos para evitar cair em armadilhas de conteúdos falsos.

Ferramentas que ajudam na identificação de vídeos feitos por IA

  • Microsoft Video Authenticator (em desenvolvimento): analisa vídeos para detectar manipulações específicas feitas por IA.

  • Originality.AI, GPTZero, Copyleaks AI Content Detector: embora mais focadas em textos, algumas dessas ferramentas também oferecem recursos para identificar conteúdos gerados artificialmente.

Acompanhe tudo sobre:Inteligência artificialRedes sociaisTikTokAnimaisAeroportos

Mais de Inteligência Artificial

Wikipedia suspende teste com IA que gerava resumos automáticos após reação dos editores

Adobe projeta lucros acima do esperado, mas encara desafios na era da IA

Startup de nuvem Crusoe investe US$ 400 milhões em chips da AMD para novo data center de IA nos EUA

Cuidado ao usar o Meta AI: botão de compartilhar pode expor conversas privadas dos usuários