Índice:

Falsificações profundas: o Neuroset foi ensinado a gerar falsificações de som e vídeo
Falsificações profundas: o Neuroset foi ensinado a gerar falsificações de som e vídeo

Vídeo: Falsificações profundas: o Neuroset foi ensinado a gerar falsificações de som e vídeo

Vídeo: Falsificações profundas: o Neuroset foi ensinado a gerar falsificações de som e vídeo
Vídeo: 🚗 Por que MILHARES de carros elétricos ESTÃO sendo ABANDONADOS na CHINA❓ 2024, Maio
Anonim

Para criar uma imagem “individual” de notícias para qualquer um de nós e falsificar as reportagens da mídia selecionadas nela, os esforços de um programador são suficientes hoje. Especialistas em inteligência artificial e segurança cibernética contaram ao Izvestia sobre isso.

Mais recentemente, eles estimaram que isso exigia o trabalho de várias equipes. Essa aceleração tornou-se possível com o desenvolvimento de tecnologias para ataques a redes neurais e geração de fakes de áudio e vídeo a partir de programas de criação de “fakes profundas”. O jornal Izvestia foi recentemente submetido a um ataque semelhante, quando três portais de notícias da Líbia publicaram de uma só vez uma mensagem que teria aparecido em uma das edições. De acordo com especialistas, dentro de 3 a 5 anos podemos esperar uma invasão de manipuladores robóticos, que serão automaticamente capazes de criar muitas falsificações.

Admirável mundo novo

Há cada vez mais projetos que ajustam o quadro da informação à percepção de usuários específicos. Um exemplo de seu trabalho foi a recente ação de três portais líbios, que publicaram uma notícia supostamente publicada na edição do Izvestia de 20 de novembro. Os criadores da farsa modificaram a primeira página do jornal, postando nela uma mensagem sobre as negociações entre o marechal Khalifa Haftar e o primeiro-ministro do Governo de Acordo Nacional (PNS) Fayez Sarraj. A falsa, na fonte Izvestia, vinha acompanhada de uma foto dos dois líderes tirada em maio de 2017. A etiqueta com o logotipo da publicação foi cortada da edição real publicada de 20 de novembro, e todos os outros textos da página da edição de 23 de outubro.

Do ponto de vista dos especialistas, em um futuro previsível, tais falsificações podem ser feitas de forma automática.

The Truman Show - 2019: Como as redes neurais ensinaram a falsificar a imagem das notícias
The Truman Show - 2019: Como as redes neurais ensinaram a falsificar a imagem das notícias

“As tecnologias de inteligência artificial estão agora completamente abertas e os dispositivos para receber e processar dados estão se miniaturizando e ficando mais baratos”, Yuri Vilsiter, Doutor em Ciências Físicas e Matemáticas, Professor da Academia Russa de Ciências, chefe do departamento FSUE “GosNIIAS”, disse ao Izvestia. - Portanto, é muito provável que num futuro próximo, nem mesmo o Estado e as grandes corporações, mas simplesmente os particulares, possam nos bisbilhotar e espionar, bem como manipular a realidade. Nos próximos anos, será possível, ao analisar as preferências do usuário, influenciá-lo por meio de feeds de notícias e falsificações muito inteligentes.

Segundo Yuri Vilsiter, já existem tecnologias que podem ser utilizadas para tal intervenção no ambiente mental. Em teoria, a invasão de robôs robóticos pode ser esperada em alguns anos, disse ele. Um ponto limitante aqui pode ser a necessidade de coletar grandes bancos de dados de exemplos de respostas de pessoas reais a estímulos artificiais com rastreamento de consequências de longo prazo. Esse rastreamento provavelmente exigirá vários anos de pesquisa antes que os ataques direcionados sejam obtidos de forma consistente.

Ataque de visão

Alexey Parfentiev, chefe do departamento de análise da SearchInform, também concorda com Yuri Vilsiter. Segundo ele, os especialistas já prevêem ataques a redes neurais, embora agora praticamente não existam exemplos desse tipo.

- Pesquisadores do Gartner acreditam que até 2022, 30% de todos os ataques cibernéticos terão como objetivo corromper os dados nos quais a rede neural é treinada e roubar modelos de aprendizado de máquina prontos. Então, por exemplo, veículos não tripulados podem repentinamente começar a confundir pedestres com outros objetos. E não vamos falar sobre risco financeiro ou de reputação, mas sobre a vida e a saúde das pessoas comuns, acredita o especialista.

Ataques a sistemas de visão por computador estão sendo realizados como parte da pesquisa agora. O objetivo de tais ataques é fazer com que a rede neural detecte algo na imagem que não está lá. Ou, ao contrário, não ver o que foi planejado.

The Truman Show - 2019: Como as redes neurais ensinaram a falsificar a imagem das notícias
The Truman Show - 2019: Como as redes neurais ensinaram a falsificar a imagem das notícias

“Um dos tópicos em desenvolvimento ativo no campo do treinamento de redes neurais são os chamados ataques adversários (“ataques adversários”. - Izvestia)”, explicou Vladislav Tushkanov, analista da Web da Kaspersky Lab. - Na maioria dos casos, destinam-se a sistemas de visão computacional. Para realizar tal ataque, na maioria dos casos, você precisa ter acesso total à rede neural (os chamados ataques de caixa branca) ou aos resultados de seu trabalho (ataques de caixa preta). Não existem métodos que possam enganar qualquer sistema de visão computacional em 100% dos casos. Além disso, já foram criadas ferramentas que permitem testar redes neurais quanto à resistência a ataques adversários e aumentar sua resistência.

No decorrer de tal ataque, o invasor tenta de alguma forma alterar a imagem reconhecida para que a rede neural não funcione. Freqüentemente, o ruído é sobreposto à foto, semelhante ao que ocorre ao fotografar em uma sala mal iluminada. Uma pessoa geralmente não percebe bem essa interferência, mas a rede neural começa a funcionar mal. Mas, para realizar tal ataque, o invasor precisa acessar o algoritmo.

De acordo com Stanislav Ashmanov, Diretor Geral da Neuroset Ashmanov, atualmente não há métodos para lidar com esse problema. Além disso, essa tecnologia está disponível para qualquer pessoa: um programador médio pode usá-la baixando o software de código aberto necessário do serviço Github.

The Truman Show - 2019: Como as redes neurais ensinaram a falsificar a imagem das notícias
The Truman Show - 2019: Como as redes neurais ensinaram a falsificar a imagem das notícias

- Um ataque a uma rede neural é uma técnica e algoritmos para enganar uma rede neural, que a fazem produzir resultados falsos e, na verdade, quebrá-la como uma fechadura de porta, - acredita Ashmanov. - Por exemplo, agora é muito fácil fazer o sistema de reconhecimento de rosto pensar que não é você, mas Arnold Schwarzenegger na frente dele - isso é feito misturando aditivos imperceptíveis ao olho humano nos dados que chegam à rede neural. Os mesmos ataques são possíveis para sistemas de reconhecimento e análise de voz.

O especialista tem certeza de que isso só vai piorar - essas tecnologias foram para as massas, os fraudadores já as estão usando e não há proteção contra elas. Como não há proteção contra a criação automatizada de falsificações de vídeo e áudio.

Falsificações profundas

As tecnologias Deepfake baseadas em Deep Learning (tecnologias de aprendizagem profunda de redes neurais. - Izvestia) já representam uma ameaça real. Falsificações de vídeo ou áudio são criadas editando ou sobrepondo os rostos de pessoas famosas que supostamente pronunciam o texto necessário e desempenham o papel necessário na trama.

“Deepfake permite que você substitua os movimentos labiais e a fala humana por vídeo, o que cria uma sensação de realismo do que está acontecendo”, diz Andrey Busargin, diretor do departamento de proteção de marca inovadora e propriedade intelectual do Group-IB. - Celebridades falsas “oferecem” aos usuários nas redes sociais a participação no sorteio de prêmios valiosos (smartphones, carros, quantias em dinheiro), etc. Os links dessas publicações em vídeo geralmente levam a sites fraudulentos e de phishing, nos quais os usuários são solicitados a inserir informações pessoais, incluindo detalhes de cartão bancário. Esses esquemas representam uma ameaça tanto para usuários comuns quanto para figuras públicas mencionadas em comerciais. Esse tipo de golpe começa a associar imagens de celebridades a golpes ou produtos anunciados, e é aí que encontramos danos à marca pessoal, diz ele.

The Truman Show - 2019: Como as redes neurais ensinaram a falsificar a imagem das notícias
The Truman Show - 2019: Como as redes neurais ensinaram a falsificar a imagem das notícias

Outra ameaça está associada ao uso de "votos falsos" para fraude telefônica. Por exemplo, na Alemanha, os cibercriminosos usaram o voice deepfake para fazer o chefe de uma subsidiária do Reino Unido transferir urgentemente € 220.000 em uma conversa telefônica, passando-se por gerente de empresa.na conta de um fornecedor húngaro. O chefe da firma britânica suspeitou de um truque quando seu "chefe" pediu uma segunda ordem de pagamento, mas a ligação veio de um número austríaco. A essa altura, a primeira parcela já havia sido transferida para uma conta na Hungria, de onde o dinheiro foi retirado para o México.

Acontece que as tecnologias atuais permitem que você crie uma imagem de notícias individual cheia de notícias falsas. Além disso, em breve será possível distinguir falsificações de vídeo e áudio reais apenas por hardware. De acordo com especialistas, as medidas que proíbem o desenvolvimento de redes neurais provavelmente não serão eficazes. Portanto, em breve viveremos em um mundo no qual será necessário reavaliar tudo constantemente.

“Precisamos nos preparar para isso e isso deve ser aceito”, enfatizou Yuri Vilsiter. - A humanidade não é a primeira vez que passa de uma realidade para outra. Nosso mundo, modo de vida e valores são radicalmente diferentes do mundo em que nossos ancestrais viveram há 60.000 anos, 5.000 anos atrás, 2.000 anos atrás e até 200-100 anos atrás. Em um futuro próximo, uma pessoa ficará em grande parte privada de privacidade e, portanto, forçada a não esconder nada e a agir com honestidade. Ao mesmo tempo, nada na realidade circundante e na própria personalidade pode ser assumido pela fé, tudo terá de ser questionado e constantemente reexaminado. Mas essa realidade futura será terrível? Não. Simplesmente será completamente diferente.

Recomendado: