Criminosos usam inteligência artificial para roubar mais de R$1 milhão

Salvador 03/10/2019 – A ESET, uma empresa proativa de detecção de ameaças, analisa caso em que cibercriminosos usaram um software de inteligência artificial (IA) para imitar a voz do CEO de uma empresa de energia alemã. A fraude permitiu aos golpistas roubarem € 220 mil (cerca de R$ 1,1 milhão, em conversão direta).

Segundo o Wall Street Journal publicou, os invasores usaram essa tecnologia para se passar pelo CEO da multinacional e enganar um de seus subordinados. O falso executivo solicitou ao diretor-executivo da subsidiária do Reino Unido que efetuasse uma transferência para um fornecedor húngaro, no prazo de uma hora e a operação foi realizada. O CEO da sede britânica, afirmou ter reconhecido a voz do chefe pelo leve sotaque alemão.

Os golpistas voltaram a se comunicar com a vítima por mais duas vezes. Porém, na última transferência, que foi pedida com urgência, o diretor-executivo da sede britânica começou a suspeitar e se recusou a realizar o procedimento.

De acordo com Jake Moore, especialista em cibersegurança da ESET, é de se esperar que, em um futuro bem próximo, veremos um grande aumento no uso do aprendizado de máquina (em inglês, machine learning) pelo cibercrime. Na verdade, “já vimos DeepFakes imitando celebridades e outras figuras públicas em vídeos”, explicou Moore a um jornal britânico. “Produzir vozes falsas requer apenas algumas gravações, e à medida que o poder de processamento dos computadores aumenta, começaremos a ver que esses audios se tornarão cada vez mais fáceis de criar”, acrescentou o especialista da ESET.

O relatório Tendências 2019, produzido pela ESET, mostra que o intuito dos cibercriminosos é roubar dinheiro e outros bens de valor.

O Facebook, juntamente com empresas como a Microsoft, e várias universidades nos Estados Unidos já notaram esta tendência crescente e expressaram a sua preocupação com o anúncio do lançamento do desafio “ Deepfake Detection Challenge (DFDC) ”. Esta é uma iniciativa que visa combater o crescente fenômeno das deepfakes e irá recompensar quem for capaz de desenvolver uma tecnologia que possa ser usada por qualquer pessoa e que tenha a capacidade de detectar o uso de inteligência artificial para gerar vídeos que foram alterados.

A divulgação de casos, como o golpe destacado pelo Wall Street Journal, servem para trazer mais consciência e deixar os usuários mais preparados para enfrentar o que pode significar uma tendência e a evolução das técnicas de Engenharia Social . Portanto, para evitar ser vítima de um golpe em que a voz de uma pessoa de confiança é imitada, Jake Moore assegura que existem algumas medidas que podem ser levadas em conta para minimizar os riscos de cair em um golpe desse tipo.

Em primeiro lugar, ter consciência de que é possível que alguém pode se passar por outra pessoa imitando a sua voz. Uma vez que sabemos que isso é possível, podemos, por exemplo, incluir algumas medidas de verificação antes de fazer uma transferência de dinheiro. Por exemplo, garanta que o número de telefone é realmente da pessoa que realizou a ligação — diga que irá retornar a ligação em alguns minutos e, ao realizar essa ligação, disque manualmente o número de telefone da outra pessoa, mesmo que o número já esteja agendado em seu celular.

A ESET tem o portal #quenãoaconteça, com informações úteis para evitar que situações cotidianas afetem a privacidade online.

Últimas notícias