Índice:
Vídeo: Falsificações profundas: o Neuroset foi ensinado a gerar falsificações de som e vídeo
2024 Autor: Seth Attwood | [email protected]. Última modificação: 2023-12-16 16:14
Para criar uma imagem “individual” de notícias para qualquer um de nós e falsificar as reportagens da mídia selecionadas nela, os esforços de um programador são suficientes hoje. Especialistas em inteligência artificial e segurança cibernética contaram ao Izvestia sobre isso.
Mais recentemente, eles estimaram que isso exigia o trabalho de várias equipes. Essa aceleração tornou-se possível com o desenvolvimento de tecnologias para ataques a redes neurais e geração de fakes de áudio e vídeo a partir de programas de criação de “fakes profundas”. O jornal Izvestia foi recentemente submetido a um ataque semelhante, quando três portais de notícias da Líbia publicaram de uma só vez uma mensagem que teria aparecido em uma das edições. De acordo com especialistas, dentro de 3 a 5 anos podemos esperar uma invasão de manipuladores robóticos, que serão automaticamente capazes de criar muitas falsificações.
Admirável mundo novo
Há cada vez mais projetos que ajustam o quadro da informação à percepção de usuários específicos. Um exemplo de seu trabalho foi a recente ação de três portais líbios, que publicaram uma notícia supostamente publicada na edição do Izvestia de 20 de novembro. Os criadores da farsa modificaram a primeira página do jornal, postando nela uma mensagem sobre as negociações entre o marechal Khalifa Haftar e o primeiro-ministro do Governo de Acordo Nacional (PNS) Fayez Sarraj. A falsa, na fonte Izvestia, vinha acompanhada de uma foto dos dois líderes tirada em maio de 2017. A etiqueta com o logotipo da publicação foi cortada da edição real publicada de 20 de novembro, e todos os outros textos da página da edição de 23 de outubro.
Do ponto de vista dos especialistas, em um futuro previsível, tais falsificações podem ser feitas de forma automática.
“As tecnologias de inteligência artificial estão agora completamente abertas e os dispositivos para receber e processar dados estão se miniaturizando e ficando mais baratos”, Yuri Vilsiter, Doutor em Ciências Físicas e Matemáticas, Professor da Academia Russa de Ciências, chefe do departamento FSUE “GosNIIAS”, disse ao Izvestia. - Portanto, é muito provável que num futuro próximo, nem mesmo o Estado e as grandes corporações, mas simplesmente os particulares, possam nos bisbilhotar e espionar, bem como manipular a realidade. Nos próximos anos, será possível, ao analisar as preferências do usuário, influenciá-lo por meio de feeds de notícias e falsificações muito inteligentes.
Segundo Yuri Vilsiter, já existem tecnologias que podem ser utilizadas para tal intervenção no ambiente mental. Em teoria, a invasão de robôs robóticos pode ser esperada em alguns anos, disse ele. Um ponto limitante aqui pode ser a necessidade de coletar grandes bancos de dados de exemplos de respostas de pessoas reais a estímulos artificiais com rastreamento de consequências de longo prazo. Esse rastreamento provavelmente exigirá vários anos de pesquisa antes que os ataques direcionados sejam obtidos de forma consistente.
Ataque de visão
Alexey Parfentiev, chefe do departamento de análise da SearchInform, também concorda com Yuri Vilsiter. Segundo ele, os especialistas já prevêem ataques a redes neurais, embora agora praticamente não existam exemplos desse tipo.
- Pesquisadores do Gartner acreditam que até 2022, 30% de todos os ataques cibernéticos terão como objetivo corromper os dados nos quais a rede neural é treinada e roubar modelos de aprendizado de máquina prontos. Então, por exemplo, veículos não tripulados podem repentinamente começar a confundir pedestres com outros objetos. E não vamos falar sobre risco financeiro ou de reputação, mas sobre a vida e a saúde das pessoas comuns, acredita o especialista.
Ataques a sistemas de visão por computador estão sendo realizados como parte da pesquisa agora. O objetivo de tais ataques é fazer com que a rede neural detecte algo na imagem que não está lá. Ou, ao contrário, não ver o que foi planejado.
“Um dos tópicos em desenvolvimento ativo no campo do treinamento de redes neurais são os chamados ataques adversários (“ataques adversários”. - Izvestia)”, explicou Vladislav Tushkanov, analista da Web da Kaspersky Lab. - Na maioria dos casos, destinam-se a sistemas de visão computacional. Para realizar tal ataque, na maioria dos casos, você precisa ter acesso total à rede neural (os chamados ataques de caixa branca) ou aos resultados de seu trabalho (ataques de caixa preta). Não existem métodos que possam enganar qualquer sistema de visão computacional em 100% dos casos. Além disso, já foram criadas ferramentas que permitem testar redes neurais quanto à resistência a ataques adversários e aumentar sua resistência.
No decorrer de tal ataque, o invasor tenta de alguma forma alterar a imagem reconhecida para que a rede neural não funcione. Freqüentemente, o ruído é sobreposto à foto, semelhante ao que ocorre ao fotografar em uma sala mal iluminada. Uma pessoa geralmente não percebe bem essa interferência, mas a rede neural começa a funcionar mal. Mas, para realizar tal ataque, o invasor precisa acessar o algoritmo.
De acordo com Stanislav Ashmanov, Diretor Geral da Neuroset Ashmanov, atualmente não há métodos para lidar com esse problema. Além disso, essa tecnologia está disponível para qualquer pessoa: um programador médio pode usá-la baixando o software de código aberto necessário do serviço Github.
- Um ataque a uma rede neural é uma técnica e algoritmos para enganar uma rede neural, que a fazem produzir resultados falsos e, na verdade, quebrá-la como uma fechadura de porta, - acredita Ashmanov. - Por exemplo, agora é muito fácil fazer o sistema de reconhecimento de rosto pensar que não é você, mas Arnold Schwarzenegger na frente dele - isso é feito misturando aditivos imperceptíveis ao olho humano nos dados que chegam à rede neural. Os mesmos ataques são possíveis para sistemas de reconhecimento e análise de voz.
O especialista tem certeza de que isso só vai piorar - essas tecnologias foram para as massas, os fraudadores já as estão usando e não há proteção contra elas. Como não há proteção contra a criação automatizada de falsificações de vídeo e áudio.
Falsificações profundas
As tecnologias Deepfake baseadas em Deep Learning (tecnologias de aprendizagem profunda de redes neurais. - Izvestia) já representam uma ameaça real. Falsificações de vídeo ou áudio são criadas editando ou sobrepondo os rostos de pessoas famosas que supostamente pronunciam o texto necessário e desempenham o papel necessário na trama.
“Deepfake permite que você substitua os movimentos labiais e a fala humana por vídeo, o que cria uma sensação de realismo do que está acontecendo”, diz Andrey Busargin, diretor do departamento de proteção de marca inovadora e propriedade intelectual do Group-IB. - Celebridades falsas “oferecem” aos usuários nas redes sociais a participação no sorteio de prêmios valiosos (smartphones, carros, quantias em dinheiro), etc. Os links dessas publicações em vídeo geralmente levam a sites fraudulentos e de phishing, nos quais os usuários são solicitados a inserir informações pessoais, incluindo detalhes de cartão bancário. Esses esquemas representam uma ameaça tanto para usuários comuns quanto para figuras públicas mencionadas em comerciais. Esse tipo de golpe começa a associar imagens de celebridades a golpes ou produtos anunciados, e é aí que encontramos danos à marca pessoal, diz ele.
Outra ameaça está associada ao uso de "votos falsos" para fraude telefônica. Por exemplo, na Alemanha, os cibercriminosos usaram o voice deepfake para fazer o chefe de uma subsidiária do Reino Unido transferir urgentemente € 220.000 em uma conversa telefônica, passando-se por gerente de empresa.na conta de um fornecedor húngaro. O chefe da firma britânica suspeitou de um truque quando seu "chefe" pediu uma segunda ordem de pagamento, mas a ligação veio de um número austríaco. A essa altura, a primeira parcela já havia sido transferida para uma conta na Hungria, de onde o dinheiro foi retirado para o México.
Acontece que as tecnologias atuais permitem que você crie uma imagem de notícias individual cheia de notícias falsas. Além disso, em breve será possível distinguir falsificações de vídeo e áudio reais apenas por hardware. De acordo com especialistas, as medidas que proíbem o desenvolvimento de redes neurais provavelmente não serão eficazes. Portanto, em breve viveremos em um mundo no qual será necessário reavaliar tudo constantemente.
“Precisamos nos preparar para isso e isso deve ser aceito”, enfatizou Yuri Vilsiter. - A humanidade não é a primeira vez que passa de uma realidade para outra. Nosso mundo, modo de vida e valores são radicalmente diferentes do mundo em que nossos ancestrais viveram há 60.000 anos, 5.000 anos atrás, 2.000 anos atrás e até 200-100 anos atrás. Em um futuro próximo, uma pessoa ficará em grande parte privada de privacidade e, portanto, forçada a não esconder nada e a agir com honestidade. Ao mesmo tempo, nada na realidade circundante e na própria personalidade pode ser assumido pela fé, tudo terá de ser questionado e constantemente reexaminado. Mas essa realidade futura será terrível? Não. Simplesmente será completamente diferente.
Recomendado:
O PAI FOI MANTIDO COM ELE ACIMA DO DESTINO - e foi isso que resultou
Seu diagnóstico soou como uma frase. A doença mitocondrial dos sistemas muscular e nervoso pressupõe demência, dificuldades de aprendizagem, enfraquecimento gradual das funções musculares do corpo e paralisia completa. Essas crianças vivem até um máximo de 11 anos
Livros de antiguidades profundas são falsos! Prova e justificativa
Um estudo muito interessante de Alexei Artemiev ajudará a entender o próximo engano dos falsificadores da história. O objeto de pesquisa são livros antigos, o autor examina as questões da tecnologia de produção de livros e pergaminhos, métodos de escrita e sinais de falsificação
Por que o professor soviético Makarenko não é ensinado na Rússia
"Quarenta professores de quarenta rublos podem levar à decomposição completa não só do grupo de meninos de rua, mas também de qualquer grupo." Esta citação é uma das mais memoráveis, na minha humilde opinião, incluída no livro - uma coleção de obras de 8 volumes. O autor deste livro é um dos mais proeminentes educadores soviéticos do século XX. Agora, seu sistema é tão popular na Europa, em países asiáticos, mas não é relevante na Rússia. Isso agora e hoje podemos fazer tudo - conscientemente esquecer, apagar, não aceitar
Foi, foi. 17 anos com Putin ponto a ponto
Existe uma campanha de propaganda na Internet chamada "17 anos com Putin", realizada de acordo com o esquema "era agora". Vamos começar com o primeiro, ou seja, com o PIB. Foram 2 trilhões. $, e tornou-se 3,7 trilhões. O crescimento foi de impressionantes 82%. É mérito de Putin? Para entender, olhamos para o gráfico da dinâmica do PIB e dos preços do petróleo:
A "teoria ariana" foi testada pela primeira vez nos ucranianos, só então foi martelada nos cérebros dos alemães
A mídia americano-ucraniana encontrou evidências de que a "teoria ariana" judaizada estava sendo introduzida na consciência dos ucranianos já nos primeiros meses da Primeira Guerra Mundial. 20 anos depois, a mesma teoria começou a ser introduzida na mente dos alemães, preparando-os para uma nova guerra com a Rússia