...
1300 669 711 - Austrália Contacte-nos

Investigando imagens, vídeos e áudio deepfake

usuário aleatório

Dan Halpin

Publicado: 22 de maio de 2023 · 9 min de leitura

Compartilhar no

Os desenvolvedores continuam a lançar produtos de Inteligência Artificial (IA) a uma velocidade assustadora, tornando difícil para os legisladores e reguladores acompanhar o ritmo. Embora muitos sejam, sem dúvida, aplicativos úteis, outros apresentam sérios riscos de danos quando estão nas mãos de atores mal-intencionados. Seja investigando golpistas, extorsionistas, notícias falsas ou assediadores, detetives sérios de fraudes cibernéticas como Cybertrace deve aplicar vigilância, inovação e previsão. Depois de explorar o uso do ChatGPT para propósitos nefastos, vamos considerar deepfakes e clonagem de voz.

Considerando os potenciais danos financeiros, reputacionais e pessoais que estas tecnologias preocupantes podem causar, Cybertrace sente-se compelido a alertar o público. Nossos investigadores experientes permanecem continuamente na vanguarda dos desenvolvimentos tecnológicos e criam ferramentas inovadoras e personalizadas para capturar criminosos cibernéticos. Com experiência em análise forense de sites, rastreamento de criptomoedas e investigações fraudulentas, Cybertrace agora também está investigando imagens, vídeos e áudios deepfake para identificar os responsáveis. Entre em contato com nossa equipe hoje para discutir seu caso e obter a ajuda necessária.

O que são imagens, vídeo e áudio Deepfake?

Construído em modelos poderosos de AI Machine Learning (ML), um deepfake é uma imagem, vídeo ou áudio forjado digitalmente de uma pessoa que a faz parecer outra pessoa. Deepfakes produzem imagens, vídeos e áudio assustadoramente realistas de eventos que nunca aconteceram. Normalmente, os deepfakes têm como alvo celebridades, políticos ou figuras públicas, com exemplos iniciais incluindo o Presidente Obama e o Papa Francisco. Isso ocorre porque a tecnologia por trás dos deepfakes funciona melhor com grandes conjuntos de dados, ou seja, imagens abundantes para treinar o modelo. No entanto, com melhorias contínuas no aprendizado de máquina, qualquer pessoa pode se tornar um alvo. Na verdade, a clonagem de voz por IA agora pode acontecer com base em apenas ouvir você falar por três segundos. É por isso que adquirir a capacidade de investigar imagens, vídeos e áudios deepfake está se tornando cada vez mais importante. Como sempre, Cybertrace são pioneiros neste espaço (cibernético) investigativo.

Um ser com uma placa de circuito no lugar do rosto, uma capa e um chapéu escuros, olha fixamente para um fundo escuro com penetrantes olhos azuis, sugerindo que por trás de um rosto falso, algo mais sinistro está à espreita.

Como são feitos os Deepfakes?

Curiosamente, os deepfakes exploram dois modelos diferentes de ML: um cria imagens/vídeo/áudio falsos a partir de dados disponíveis e outro tenta detectá-los. Quando este último não consegue mais dizer se uma imagem/vídeo/áudio é real ou falso, provavelmente também enganará os humanos. É assim, em suma, que um Rede Adversarial Generativa (GAN) opera. Não muito tempo atrás, a produção de tais deepfakes era exclusividade de hackers que moravam em porões e nerds de computador com PCs de jogos de alta potência. Hoje em dia, qualquer pessoa com um laptop e conexão à Internet pode gerar vídeos deepfake de aparência realista gratuitamente em menos de 30 segundos. Além disso, a clonagem de voz por IA requer apenas um clipe de áudio de três segundos para fazer sua voz dizer tudo o que seu criador deseja. Na verdade, um artigo recente da Forbes chamou todo o processo de 'assustadoramente fácil', especialmente para aqueles com más intenções. Investigar imagens, vídeos e áudios deepfake nunca foi tão importante.

[google_adsense_shortcode]

Quais são os perigos das imagens, vídeos e áudios deepfake?

O que começou como entretenimento inofensivo entre usuários rapidamente degenerou em codificadores que criaram algoritmos de ML que transpuseram rostos de celebridades para vídeos pornográficos. Como uma investigação recente da ABC's 4 cantos demonstra, a pornografia não consensual ainda é uma das principais aplicações dos deepfakes. Os criminosos também usam a clonagem de voz para roubar o seu dinheiro e a sua identidade através de serviços bancários telefónicos ou de portais de serviços governamentais como o Centrelink. Adicione a isso notícias falsas, eleitores enganosos, pagamentos ilícitos, álibis falsos, chantagem e terrorismo, e você terá um coquetel inebriante! Não é de admirar que cada vez mais especialistas estejam pedindo maiores capacidades para investigar imagens, vídeos e áudios deepfake.

Simbólico do processo necessário para fazer um deepfake, a imagem contém uma mulher com uma grade em vez de um rosto, e seu rosto real paira ao lado dela, também com uma grade sobre ele.

Mas, para além das utilizações nefastas para actividades criminosas específicas, há também um problema maior em questão. Deepfakes representam enormes desafios sociais à nossa compreensão básica do que é real, verdadeiro e verossímil. Com a forte propensão dos humanos para acreditar em nossos próprios ouvidos e olhos, as evidências de vídeo e áudio têm forte credibilidade. Isto é tão verdadeiro em aplicação da lei como acontece nas eleições e na cultura popular.

Os deepfakes significam que não podemos mais confiar em nossos sentidos? A clonagem de voz nos fará pensar que os políticos disseram algo que nunca disseram? Isso torna as alegações de “notícias falsas” mais fáceis? Com ​​os deepfakes cada vez mais difíceis de detectar, mesmo para ferramentas de detecção, provavelmente assistiremos a um agravamento da desinformação política. Neste clima, adquirir capacidade profissional para investigar imagens, vídeos e áudios deepfake nunca foi tão importante.

Como os cibercriminosos usam imagens, vídeos e áudios deepfake?

Naturalmente, os cibercriminosos foram rápidos em adotar IA e imagens, vídeos e áudios deepfake para explorar, desinformar e manipular. No domínio da IA ​​em geral, os especialistas temem que os terroristas estejam a explorar formas de usar veículos sem condutor como armas. Além disso, os estados hostis podem tentar perturbar os sistemas controlados pela IA, causando falhas de energia, congestionamentos de tráfego ou falhas na logística alimentar. Além disso, atores mal-intencionados podem utilizar imagens, vídeos e áudio falsos para fomentar distúrbios civis e manipular eleições. Finalmente, em comparação com as formas tradicionais de crime, o crime baseado em IA (incluindo a clonagem de voz) é muito mais simples de partilhar, repetir ou vender. Como resultado, os cibercriminosos podem facilmente fornecer “serviços criminais” mediante pagamento ou terceirizar as partes mais difíceis do seu crime digital. A investigação de imagens, vídeos e áudios deepfake tornou-se, portanto, uma questão premente para as agências policiais e de inteligência em todo o mundo.

Uma mulher com uma grade cobrindo metade do rosto olha através de um painel transparente com imagens técnicas translúcidas, como gráficos, grades e mapas.

E quanto aos golpistas e fraudadores?

Atores estatais maliciosos, terroristas e sindicatos do crime não são os únicos que fazem uso da IA. Na verdade, imagens, vídeos e áudios deepfake também permitiram que pequenos golpistas aumentassem significativamente suas operações. Usando imagens e vídeos falsos, os fraudadores agora podem criar contas falsas em aplicativos de namoro para perpetrar golpes de romance. Da mesma forma, eles podem criar vídeos falsos de CEOs ou celebridades endossando investimentos fraudulentos em criptomoedas. Os golpistas usam esses endossos falsos para manipular vítimas inocentes e roubar seu dinheiro suado. Além disso, os fraudadores podem facilmente criar imagens de produtos, serviços ou análises de produtos falsificados para enganar as vítimas por meio de fraudes. golpes de venda de carro. Juntos, há muitos motivos para priorizar a investigação de imagens, vídeos e áudios deepfake, incluindo clonagem de voz.

A clonagem de voz é um problema?

Como mencionado antes, a clonagem de voz é capaz de recriar a voz de uma pessoa depois de apenas três segundos ouvindo-a falar. É preocupante que isto ocorra num momento em que os bancos e as agências governamentais utilizam cada vez mais a biometria de voz para autenticar as chamadas telefónicas dos clientes. Em última análise, isso significa que os golpistas podem usar IA para replicar de forma rápida e convincente uma peça-chave da sua identidade pessoal. Tal como acontece com todas as suas outras manobras, o seu objetivo final é aceder aos seus dados pessoais e dinheiro. Além disso, os fraudadores também podem usar a clonagem de voz para se passar por um amigo ou membro da família em perigo e precisando de dinheiro. Basicamente, uma versão mais sofisticada do golpe de mensagem de texto “Oi, mãe”, os golpistas manipulam o amor familiar e a proteção das vítimas. Só depois que os golpistas esvaziam suas contas bancárias é que as vítimas percebem que não há nenhum membro da família em apuros. Infelizmente, estamos vendo casos crescentes e avisos sobre golpes de emergência familiares aprimorados por IA.

Um receptor de telefone está se transformando em uma boca estranha e monstruosa, representando uma falsificação de áudio e clonagem de voz. Ao lado dele, há uma parede de texto sem sentido, letras que não formam palavras reais.

Que outras ameaças existem?

Infelizmente, a clonagem de voz também está a melhorar a qualidade e a credibilidade da fraude em massa através de mensagens telefónicas automatizadas, também conhecidas como “fraudes robóticas”. A maioria dos destinatários de mensagens ameaçadoras de autoridades fiscais, provedores de telecomunicações ou outras entidades governamentais/empresariais geralmente sabiam que eram falsas. No entanto, com melhorias na qualidade de voz e script da IA, distinguir mensagens reais de mensagens falsas ficará mais difícil. Finalmente, os golpistas estão usando IA para criar “evidências” comprometedoras falsas para chantagear alvos. Por estas razões, Cybertrace acredita que investigar imagens, vídeos ou áudios deepfake é cada vez mais importante.

O que podemos fazer para nos proteger contra imagens, vídeos e áudios deepfake?

Num mundo digital cada vez mais inundado de imagens, vídeos e áudios deepfake, precisamos de nos proteger. Felizmente, existem várias maneiras de fazer isso. Em primeiro lugar, numa corrida de gato e rato com geradores deepfake, empresas de tecnologia como Intel e OpenAI estão trabalhando em ferramentas de detecção de deepfake. Embora estes se tornem sofisticados o suficiente para acompanhar os deepfakes, eles também não são cem por cento confiáveis. Conseqüentemente, é importante confiarmos no bom e velho pensamento crítico e no conhecimento da mídia para perguntar: quem fez o vídeo? Foi corroborado por outros meios de comunicação? O que mais seu assunto disse? Em suma, todos nós precisamos apostar na investigação de imagens, vídeos e áudios deepfake.

Uma mão girou um mostrador para o registro de max em um cofre digital. Há uma imagem de um cadeado dentro de um escudo na face do mostrador.

Um grande exemplo de como promover proactivamente esta capacidade vem do país nórdico de Finlândia. Confrontado com uma campanha concertada de desinformação da sua vizinha Rússia, trouxe especialistas globais para ajudar a conceber contramedidas eficazes. Ao combinar a verificação de factos com o pensamento crítico e a literacia eleitoral, a Finlândia cultivou uma cidadania robusta com menor probabilidade de ser manipulada. Isto representa um resultado poderoso e que pode ser replicado em outros países. Da mesma forma, a comédia e a sátira fornecem caminhos eficazes para educar o público sobre os perigos dos deepfakes. Um ótimo exemplo disso é o do comediante Jordan Steele famoso vídeo de Obama. Seja qual for o método, a educação desempenha um papel crucial na comunidade que investiga deepfake, imagens, vídeo e áudio, incluindo clonagem de voz. Mas e se os golpistas ou extorsionistas ultrapassassem nossas defesas?

Como é possível Cybertrace Me ajude?

Às vezes, fraudadores determinados conseguem ultrapassar até as defesas mais vigilantes. É aí que você precisa de ajuda séria do seu lado! Suponha que os golpistas tenham roubado seu dinheiro suado, fazendo-se passar por seus netos, parceiros românticos em potencial ou celebridades. Alternativamente, alguém pode estar distribuindo imagens ou vídeos falsos seus para assediar ou extorquir você. Felizmente, CybertraceA equipe de investigadores experientes da pode ajudá-lo a descobrir quem é o responsável. Quer seja rastreando criptomoeda em todo o blockchain, análise forense de sites para ver quem os hospeda, ou vasculhando meticulosamente perfis de mídia social para identificar os infratores, podemos ajudar na investigação de imagens, vídeos e áudios deepfake, incluindo clonagem de voz. Descubra quem está por trás da fraude, chantagem ou assédio, para que você possa ir à polícia ou aos seus advogados. Cybertrace tem os recursos, capacidades e dedicação para realizar o trabalho. Contato nossos experientes investigadores hoje.

Esta postagem foi revisada para maior legibilidade e precisão em 27 de novembro de 2024.

Dan Halpin - Autor

Dan Halpin

Fundador e Diretor, Cybertrace

Qualificações e Experiência
• Mais de 20 anos em investigação e inteligência australiana • Ex-ASIO, Polícia de NSW, Polícia de Queensland • Oficial de Inteligência Antiterrorismo • Julgamento de Terrorismo da Operação Pendennis (2007-2009) • Consultor Assessor do PM&C (2016-2017)
Experiência Profissional

Dan foi empregado nas indústrias de investigação e inteligência australianas pelos últimos 20 anos e possui qualificações formais em policiamento, investigações, inteligência, operações de segurança e gerenciamento de risco de segurança. Dan é mundialmente conhecido como um pioneiro na investigação de fraudes de criptomoeda.

Deixa um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *

Contacte-nos

Entre em contato com nossa simpática equipe em Cybertrace Austrália para uma avaliação confidencial do seu caso. Fale com os especialistas.

Ícone de email Email: [email protected]
Ícone do telefone Internacional +61 2 9188 7896