Uma reportagem do ano passado sobre o software GPT-2, capaz de redigir textos de maneira autônoma com “potencial destrutivo”, continua atual. Carlos Rydlewski (Valor 24/05/2019) escreveu as “deepfakes”. Elas podem ser usadas em um mundo onde a trajetória caótica a partir de um pequeno diferencial na condição inicial-informacional gera explosões de ódio de alcance capaz de manipular emoções coletivas — e eleições contra os melhores candidatos.
Entusiasmo, festejos e discursos envaidecidos. Em geral, é em um clima dessa natureza que pesquisadores anunciam a criação de uma nova tecnologia, daquelas capazes de lançar à obsolescência tudo o que existe por aí. Mas não foi isso o que se viu em uma apresentação na OpenIA, organização sem fins lucrativos com sede em San Francisco, na Califórnia. Ela é bancada por gente como Elon Musk, da Tesla Motors.
O software redigiu um artigo de sete parágrafos, que incluía até citações de representantes do governo. Tudo não passava de um devaneio de bits e bytes, mas crível. E o programa é versátil. Alimente-o com a frase inicial de “1984”, de George Orwell [“Era um dia frio e ensolarado de abril (…)”], que a engenhoca capta o estilo da abordagem e imprime um tom ficcional à sequência da narrativa. De acordo com a OpenIA, o programa foi treinado com 10 milhões de textos, ou 40 GB de dados, o suficiente para armazenar 35 mil cópias de “Moby Dick”.
Parece assustador? Há mais. Além de textos, vídeos podem ser manipulados – e não faltam exemplos. Mario Klingeman é um artista alemão intrigante. Ele usa a inteligência artificial para criar imagens computacionais insólitas. Elas formam retratos de pessoas que jamais existiram, mas a partir da fusão de rostos reais.
Há dois anos, ele postou um vídeo no YouTube onde a compositora francesa Françoise Hardy, hoje com 75 anos, falava sobre o governo Donald Trump. As imagens, contudo, eram dos anos 60, época quando Trump não passava de um jovem com potencial maligno.
Além do mais, a voz em cena não pertencia à artista francesa, mas a Kellyanne Conway, conselheira do presidente americano. Ela foi quem cunhou a expressão “fatos alternativos” como eufemismo às “fake news“. A coisa toda era uma farsa. Aquilo jamais havia acontecido, mas pôde ser forjado a partir de um programa de IA.
Nessa linha, o cineasta americano Jordan Peele, vencedor do Oscar de 2018 pelo roteiro de “Corra!” (é o autor de “Nós”), participou no ano passado da produção de um filmete em parceria com o site de notícias BuzzFeed. O vídeo mostrava Barack Obama disparando impropérios. Dizia coisas como “Trump é um imbecil” ou “Killmonger [o vilão segregacionista do filme Pantera Negra] estava certo”. Tudo mentira.
Mas convincente e com qualidade superior ao experimento de Klingeman, feito um ano antes. Nesse caso, a voz de Peele foi “encaixada” na imagem de Obama por um software, após 56 horas de processamento. O resultado foi de realismo considerável. O cineasta e os responsáveis pelo site frisaram que o objetivo do embuste era lançar um alerta sobre as “deepfakes“. Conseguiram.
“Imagine”, questionam acadêmicos, o efeito de um áudio de “autoridades iranianas planejando uma operação secreta para matar líderes sunitas em uma província do Iraque”. Ou “um vídeo com um general americano queimando um exemplar do Alcorão”. Pois é. Imagine.
Adulterações desse tipo sempre ocorreram. Com o uso dos sistemas de IA, no entanto, alcançam novo patamar. E não sobem degraus, escalam montanhas. Hoje, os recursos para a produção de “deepfakes” estão ao alcance de qualquer pessoa medianamente familiarizada com computação.
Na internet, há softwares gratuitos, prontos para download, que executam o trabalho do falsário de maneira quase autônoma. Basta abastecer o programa com dados (imagens da vítima) e ter um chip de processamento gráfico (GPU, na sigla em inglês), que custa cerca de R$ 2 mil.
Essa banalização da tecnologia é resultado de três fatores.
O primeiro é farta oferta de dados (imagens dos alvos, por exemplo) proporcionada pela web. Qualquer criança é capaz de fazer uma busca e reunir conjunto considerável de fotos ou vídeos de Obama, Trump ou mesmo Françoise Hardy.
O segundo é o barateamento das GPUs.
O terceiro diz respeito à evolução da inteligência artificial. Ela se firmou como um campo da ciência em 1956, ao despontar no título de uma conferência no Dartmouth College, em New Hampshire (EUA). O termo refletia a crença de cientistas na possibilidade de as máquinas imitarem o cérebro humano, o que incluía a simulação de processos de aprendizagem. Tal expectativa, contudo, hibernou por décadas nos chamados “invernos da IA”.
Mas o clima nesse ramo esquentou no início do século com avanços em subcategorias da inteligência artificial, como o “machine learning“, aprendizado de máquina, e o “deep learning“, aprendizado profundo (daí o nome “deepfakes”). As falsificações de vídeo valem-se de um tipo de aprendizado profundo em que dois algoritmos competem entre si. Eles formam uma “rede geradora de adversários”, ou GAN (na sigla em inglês).
Um dos algoritmos, o “gerador”, produz, por exemplo, imagens artificiais de gatos a partir de um banco de dados real. Enquanto isso, o outro algoritmo, o “discriminador”, detecta as falsificações e falhas. Eles ficam nessa disputa até que as imagens produzidas ganhem verossimilhança. Ou seja, até que o falso se torne “real”.
Diante de tamanho engenho, e considerando que algumas das experiências com “deepfakes” pipocam há dois anos pelo mundo, por que elas não estão entupindo as redes sociais? Ainda falta qualidade às falsificações profundas, observa o professor Anderson Rocha, diretor do Instituto de Computação da Unicamp. Até agora, a maior parte resume-se a vídeos toscos em que o rosto de atrizes pornôs foi substituído pelo de mulheres famosas. Michelle Obama, Scarlett Johansson e Charlize Theron passaram por isso.
Outro problema é a produção desses filmetes ser demorada. Gerar uma sequência de dois minutos de cenas fajutas requer cerca de dez horas de processamento. Algoritmos forenses também podem detectar essas imagens falsas. “A evolução dos softwares de ‘deepfakes‘ é exponencial e eles melhoram a cada semana”, diz Rocha. “A preocupação não é com o que existe, mas com o que existirá em muito breve.”
A agravante é que a qualidade dos vídeos não precisa ser tão boa para que os estragos se espalhem. No ano passado, um partido da Bélgica, o Socialistische Partij Anders, causou polêmica ao divulgar uma “deepfake” onde Trump conclamava os belgas a abandonar o Acordo de Paris, o tratado sobre mudanças climáticas. O vídeo era primário e não pretendia iludir ninguém.
A boca do presidente americano movia- se como gelatina em processo de derretimento. Na fala final, o sósia digital de Trump alertava: “Sabemos que a mudança climática é falsa – assim como este vídeo!”. Apesar de tudo, ele foi tomado como real, causando enorme celeuma.
Inteligência Artificial e potencial destrutivo das “deepfakes”: nova categoria das “fake news” publicado primeiro em https://fernandonogueiracosta.wordpress.com
Nenhum comentário:
Postar um comentário