terça-feira, 17 de setembro de 2019

Deep Fakes | Quando os olhos deixam de acreditar







Depois das fake news, a democracia terá de enfrentar um inimigo ainda mais poderoso. São os deep fakes e desta vez serão muito mais difíceis de vencer. Um vídeo falso pode mudar o sentido de voto num país, potenciar um crime económico ou levar à chantagem sexual de uma vítima, mas isso é apenas o início. As novas formas de media sintéticas vão abalar a sociedade como um todo. Prospetiva dos tempos que hão de vir, onde o sistema de crenças pode mesmo estar em risco

TEXTO JOÃO MIGUEL SALVADOR ILUSTRAÇÕES ALEX GOZBLAU
C
inco de outubro de 2019, véspera de eleições legislativas. O dia é de reflexão e não há qualquer notícia sobre política nacional nos jornais, nas rádios ou nos noticiários televisivos. A lei cumpre-se, mas é cada vez mais difícil contornar o que se está a passar no mundo virtual. Há um vídeo que começou a circular nas redes sociais no final do dia anterior e que rapidamente se espalhou por todas as plataformas. Não é conhecida a sua proveniência, mas o número de pessoas a vê-lo e a partilhá-lo por toda a parte não para de aumentar. Em publicações no Facebook, tweets e retweets, histórias no Instagram. A informação é poderosa e ao próprio vídeo começam a juntar-se conteúdos criados por milhares de pessoas. Toda a gente está a comentar uma pretensa gravação feita em segredo, na qual dois candidatos fazem um pacto sobre como esperam governar Portugal nos próximos anos, e como esperam tirar partido da próxima legislatura para enriquecer. Depois de uma campanha com poucas novidades, esperavam-se resultados previsíveis. Mas agora tudo pode mudar, e tudo com recurso a um pequeno vídeo.

O ser humano é um animal visual, que se habituou a acreditar naquilo que vê mais do que em qualquer outra coisa, mas terá de mudar a forma como se comporta em relação aos seus sentidos. Porque a tecnologia que criou estará prestes a traí-lo. Depois do fenómeno de desinformação nas redes sociais — nomeadamente com recurso a fake news — e da ingerência russa nas eleições norte-americanas, há uma ameaça a crescer na sombra que pode fazer danos muito maiores. Mais perigosos do que os artigos em texto com títulos sensacionalistas que levaram ao crescimento da polarização em várias partes do globo, os deep fakes prometem ser um desafio de monta para todos. E podem ameaçar a democracia como a conhecemos.
Com recurso a dados suficientes, é possível criar um vídeo falso de uma pessoa a dizer algo que esta nunca disse. Ou a fazer algo que nunca fez. E isso tanto pode acontecer para fins políticos (muitas das comunicações dos Ministérios da Defesa são feitas online), crimes económicos (na semana passada uma empresa britânica foi burlada em 200 mil euros num esquema que envolvia deep fakes) ou mesmo para chantagem sexual. Aliás, o termo deep fake (um conteúdo falso criado com recurso a deep learning) nasceu no mundo da pornografia e só depois penetrou noutras áreas. E o mesmo já tinha acontecido com o streaming de vídeo ou com as experiências de realidade virtual (gravados do ponto de vista de um dos intervenientes, os chamados POV). Da colocação de rostos famosos em vídeos pornográficos nos quais não participaram à criação de autênticas realidades paralelas foi um passo e estas formas de media sintéticas (conceito criado para apelidar os deep fakes) vão entrar rapidamente no quotidiano de cada um.
É como se a vítima de um deep fake fosse uma espécie de marioneta digital do agressor, numa espécie de “Contra-Informação” criado com recurso a algoritmos de inteligência artificial (IA), mas em que o humor é o último dos fins. Muito do software necessário pode ser encontrado em repositórios de código abertos, e as generative adversarial networks (tecnologia de IA usada para criar deep fakes) estão a aperfeiçoar-se a si próprias. Tudo porque de um lado está o algoritmo gerador, encarregado da síntese de imagem e de criar novas versões de cada frame de forma quase aleatória, ao passo que do outro lado está o algoritmo discriminador, que julgará a verosimilhança dessas mesmas imagens, comparando-as com fotografias reais captadas por fotógrafos.
Não é difícil perceber que à medida que cresce o número de imagens existentes, estas representações fabricadas (sintetizadas) vão tornar-se cada vez mais próximas da realidade; até que não haverá forma de as distinguir. Com o passar do tempo serão necessários cada vez menos dados — a Samsung já demonstrou que no futuro bastará uma fotografia para criar um vídeo — e isso vai acelerar a produção de conteúdos, numa altura em que já são adicionadas 576 horas de vídeo ao YouTube a cada 24 horas. No caso dos media sintéticos, o seu custo decresceu de forma significativa nos últimos anos e a tendência mantém-se.
Até agora apenas do domínio de programadores e especialistas em efeitos visuais de Hollywood, a tecnologia está cada vez mais acessível, e neste momento talvez seja mais correto dizer mesmo que está presente nos smartphones de milhões de pessoas. Senão, vejamos. Talvez poucos saibam que quase todos já têm acesso a aparelhos que recorrem a redes neurais. E que as usam sem pensar quase diariamente. Modo retrato do iPhone? Redes neurais ativadas. Smarphone Huawei com câmara fotográfica de alta resolução para imagens incríveis? Só é possível com inteligência artificial. Os sistemas estão a ser automatizados e há cada vez mais dados disponíveis, pelo que o realismo do vídeo final sintético será cada vez maior.


Tudo começou com o Face Swap, ferramenta disponível em redes sociais como o Snapchat que permitia trocar de rosto com um amigo, e culminou nos últimos meses em versões muito mais avançadas. Por exemplo, a popular e polémica FaceApp russa que prometia envelhecer os seus utilizadores em segundos fazia-o em troca de dados que armazenará para sempre. E na última semana surgiu uma outra aplicação móvel, desta vez de origem chinesa, especializada em algo que se julgava estar apenas ao alcance de profissionais. Com a Zao, milhões de pessoas passaram a ter no bolso um aparelho com a capacidade de criar deep fakes. Sem qualquer controlo. Ainda não está disponível fora do gigante asiático, mas isso não tardará a acontecer, mesmo que com outro nome ou controlada por outro grupo.
Os deep fakes são puras ficções, como a descrição futurista de uma véspera de eleições em Portugal feita acima, mas o que podia ser um sonho de uma mente criativa tornou-se um pesadelo de segurança internacional, e já há quem esteja a tomar medidas para atenuar os problemas da tecnologia, embora o problema principal seja de origem educacional. É o que defendem os especialistas consultados pelo Expresso, numa altura em que mais de metade (52%) dos portugueses não conseguem sequer identificar uma notícia falsa. De acordo com um estudo divulgado pela União Europeia este ano, ”os portugueses parecem estar menos conscientes da exposição a notícias falsas, menos preparados para identificá-las e menos dispostos a considerá-las um problema no seu país e para o funcionamento das democracias” do que os restantes europeus. E isso é um perigo numa altura em que a mentira está a tomar o lugar da verdade a um ritmo acelerado, com implicações na forma como a informação veiculada é consumida. Se até agora um vídeo podia servir como prova, isso pode estar prestes a mudar e o contexto ganhará cada vez mais importância.
“O Presidente Trump é um idiota total e completo.” Quem visse Barack Obama a proferir estas palavras em vídeo podia acreditar que se tratava do antigo chefe de Estado a falar sobre o seu sucessor, mas a verdade é que se trata apenas de um trecho de um vídeo do ator Jordan Peele que alerta para as potencialidades dos vídeos falsos. “Estamos a entrar numa era em que os nossos inimigos podem fazer com que qualquer pessoa diga qualquer coisa em qualquer altura”, continua a ouvir-se ‘Obama’, que considera estarmos a viver “tempos perigosos”. “A forma como avançarmos na era da informação fará a diferença entre sobrevivermos ou nos tornarmos nalgum tipo de distopia”, conclui-se, enfatizando a importância de se verificar quais as fontes consultadas na internet.
Num tempo de pós-verdade, no qual os factos objetivos parecem ter uma importância inferior face ao apelo às emoções e às crenças pessoais, a chegada dos deep fakes só faz crescer o problema — mesmo que a desvalorização do valor de verdade não seja algo novo. Para Napoleão Bonaparte, a história — contada sempre da perspetiva dos vencedores — não passava de um conjunto de mentiras sobre as quais se chegou a um acordo. E para Estaline, que ordenou a falsificação e alteração de fotografias, mudar a imagem era mudar a história. Há séculos que o ser humano lida com a verdade e a mentira, mas nunca teve tantas ferramentas ao seu dispor para manipular a realidade. Nem nunca consumiu tanta informação, muitas vezes sem se aperceber que está a fazê-lo.
E aqui vale a pena fazer a ponte para a teoria de Daniel Kahneman, Prémio Nobel da Economia em 2002, que questionou o modelo racional de tomada de decisões e de formulação de juízos. Em “Pensar, Depressa e Devagar” (Temas e Debates), o autor divide a mente humana em dois sistemas, com funções distintas. O sistema 1 toma decisões rápidas, de maneira intuitiva, emocional e sem esforço, baseadas na memória associativa, ao passo que o sistema 2, mais lento, é acionado quando nos encontramos numa situação que exija concentração e raciocínio. E isso pode estar ligado também à forma como a informação falsa tem proliferado em todo o mundo.
Para Joana Gonçalves de Sá, professora da Universidade Nova de Lisboa e coordenadora do grupo de investigação em Data Science and Policy que recentemente recebeu uma bolsa no valor de 1,5 milhões de euros para investigar os fenómenos de desinformação, tudo tem uma relação. A utilização das redes sociais é feita em momentos de lazer, quando se está cansado “e não se quer fazer grande esforço a pensar”, pelo que é o sistema 1 que está ativo nesses momentos. E como Kahneman defende, este não presta tanta atenção ao conteúdo que se está a consumir, mesmo que hoje seja nesses momentos que muitos se informam. Atualmente, e de acordo com os dados revelados este ano no relatório Global Digital, os portugueses passam em média duas horas e nove minutos por dia nas redes sociais, menos sete minutos do que a média global.
EM BUSCA DE SOLUÇÕES
Nos Estados Unidos, que agora se preparam para as eleições presidenciais de 2020 — numa sociedade polarizada que pode confirmar Trump na Casa Branca para mais um mandato —, as autoridades estão preocupadas com os avanços e possíveis repercussões dos deep fakes e já criaram um programa dedicado a perceber as implicações e os perigos dos media sintéticos para a segurança nacional. O alerta foi dado mais recentemente pela Câmara dos Representantes, que em junho admitiu estar a receber alertas de várias instituições para a possibilidade de ingerência tecnológica durante o processo eleitoral, mas já nessa altura havia quem trabalhasse no sentido de minorar os seus efeitos. A Defense Advanced Research Projects Agency (DARPA) criou o programa MediFor, que está a tentar desenvolver tecnologias automatizadas de inteligência artificial para avaliar a manipulação em grande escala. A ideia é tornar o processo muito mais rápido do que a análise forense manual, que exige bastante tempo e experiência na identificação das manipulações efetuadas. Matt Turek, responsável pelo projeto, espera que a plataforma venha a detetar automaticamente as manipulações, fornecendo informações detalhadas sobre como foram realizadas, facilitando o processo de sinalização da veracidade de cada conteúdo. Será um pouco como um lacre real, que atestava a proveniência de um determinado documento no período medieval.
O objetivo é aumentar o poder de verificação sobre cada conteúdo partilhado, uma vez que neste momento o poder está do lado de quem manipula os factos com recurso a software dedicado. Se já é possível retirar objetos de uma imagem, colocar objetos noutra, trocar a face e manter o corpo e substituir o áudio de um vídeo, estamos prestes a entrar numa área em que a realidade pouco se distanciará da ficção. Dentro de alguns anos, e há quem defenda que serão apenas meses tendo em conta a velocidade a que a tecnologia evolui, teremos vídeos a registar eventos que nem sequer aconteceram. E será cada vez mais difícil identificar algo que não aconteceu, pois à medida que cresce o acesso a estas tecnologias, mais fácil será criar uma narrativa. “Filmar” de vários ângulos, com “câmaras diferentes” fará com que os deep fakes sejam cada vez mais difíceis de identificar. E a opinião dos especialistas é unânime: apesar das aparências, os Estados Unidos não estão a fazer o suficiente, e é na Europa que se veem as primeiras ações concretas.
Será cada vez mais difícil identificar algo que não aconteceu, pois à medida que cresce o acesso a estas tecnologias, mais fácil será criar uma narrativa


Em dezembro do ano passado foi lançado um plano de ação contra a desinformação, baseado nos princípios da transparência e da responsabilização, afastando qualquer possibilidade de se ir demasiado além — e restringir a liberdade de expressão. Foram desbloqueados novos fundos para identificar e expor informações falsas, ao mesmo tempo que se aposta na criação de um sistema rápido de alerta para sinalizar media sintéticos em tempo real. Também a velocidade da disponibilização das descobertas científicas ao público poderá ter de ser repensada, alerta-se no artigo ‘Digital Forensics in a Post-Truth Age’, da “Forensic Science International”, que defende o estabelecimento de um período entre determinado avanço científico e a sua comunicação. Tudo para travar a epidemia que ameaça a forma como vivemos. E é exatamente como se de uma doença se tratasse que Joana Gonçalves de Sá vai estudar o fenómeno da desinformação. Está tudo relacionado com o facto de não sermos o agente racional que julgávamos até ao século XIX, uma espécie de Mr. Data da série de ficção científica de “Star Trek”.
Sofremos de desvios de racionalidade e de períodos de enviesamento cognitivo, que nos levam a agir de forma emocional em relação a vários aspetos da vida. E um exemplo disso mesmo é o efeito Euromilhões. Saber a probabilidade de acertar na chave sorteada devia impedir-nos de jogar, mas o facto de estar em causa um prémio tão elevado leva-nos a apostar. Acreditamos naquilo em que queremos acreditar e no caso das informações falsas junta-se um outro fator: a existência de “um gap entre o que se sabe e o que se julga saber”. As pessoas sobrestimam o conhecimento que têm, e isso é em si próprio um perigo gigante. Se fôssemos 100% racionais, apenas partilharíamos informação sobre a qual tivéssemos uma certeza absoluta, mas não é isso que acontece. São muitas as razões que levam as pessoas a partilhar informação falsa online, pelo que muito provavelmente o acesso às redes sociais apenas criou uma tempestade perfeita.
“Do ponto de vista do comportamento humano, interessa tentar perceber os enviesamentos cognitivos, com modelos de previsão; e perceber o que nos torna mais suscetíveis” a partilhar fake news ou deep fakes, por exemplo. Será agora desenvolvido através de modelos matemáticos de epidemiologia, porque a desinformação funciona como um vírus. Agora, e enquanto se estudam e aplicam outras formas de combate ao problema, tentam criar-se modelos preditivos que evitem a propagação com recurso a três fatores: infecciosidade da informação, rede de contactos e suscetibilidade para a partilha. Pode vir a ter como resultado uma espécie de vacina contra as fake news, mas o melhor é não esquecer que este vírus da desinformação pode ganhar novas estirpes, mais difíceis de combater.
Gigantes como a Google, Facebook, Twitter e Mozilla juntaram-se ao código que tenta estabelecer alguns standards neste campo, mas algumas das suas decisões nos últimos tempos parecem ir contra as boas práticas que a atualidade impõe. O grupo controlado por Mark Zuckerberg, por exemplo, considera que não tem de garantir que tudo o que é partilhado nas suas redes é verdadeiro (recusando-se a tomar responsabilidades que são tradicionalmente da imprensa) e recentemente recusou apagar um deep fake no Instagram em que o visado era o próprio fundador do Facebook. Neste, admitia a responsabilidade pela recolha de dados de forma ilegal, assumindo-se como uma pessoa com “total controlo de milhares de milhões de dados roubados, todos os seus segredos, as suas vidas, o seu futuro”. O que não deixa de ser irónico dois meses depois, com o anúncio de que vão começar a combater os deep fakes dentro da plataforma.
Na semana passada, a equipa do Facebook controlada por Mike Schroepfer anunciou que vai investir 10 milhões de dólares (€9 milhões) num projeto de combate aos deep fakes, com o apoio da tecnológica Microsoft e de universidades como Berkeley, MIT e Oxford. A iniciativa fará parte de um desafio que pretende incentivar a criação de novas técnicas e ferramentas de deteção, mas esta não está livre de críticas. Embora pretenda “catalisar mais investigação e desenvolvimento para esta área”, com o objetivo de impedir a propagação de “vídeos gerados por inteligência artificial de pessoas reais a dizerem coisas ficcionais”, poderá estar a contribuir para o avanço do que pretende combater. Mike Schroepfer frisa que “este é um problema que está constantemente a evoluir, tal como o spam”, por exemplo, pelo que só será possível vencê-lo se gigantes como o Facebook conseguirem ajudar “a indústria e a comunidade de inteligência artificial a unirem-se”. A ideia é criar deep fakes para combater deep fakes, mas à medida que os algoritmos de deteção ficam mais potentes, cresce também a sofisticação dos algoritmos que criam estas imagens falsas. É uma autêntica corrida do gato e do rato cujo resultado é imprevisível. No limite, pode até só acelerar a evolução tecnológica, pelo que as vozes contra esta abordagem começam a fazer-se ouvir.
“As plataformas tecnológicas são parte do problema e devem ajudar, mas isto são sempre soluções de muito curto prazo, um autêntico perigo e uma jogada muito arriscada”, adverte Joana Gonçalves de Sá sobre a novidade dada por Schroepfer na última semana. “Quando foi anunciado, fiquei preocupada e há mesmo quem questione a legalidade de tudo isto.” A investigadora lembra que estamos perante um vazio legal e que estamos “a pôr nas mãos das plataformas a forma como isto se processa, sem legisladores, sem sociedade civil e esquecendo que há conflitos de interesses. São negócios e prestam contas a acionistas.” “Deixar a resolução destas questões na mão de empresas é um erro.”
DIZ-ME O QUE QUERO OUVIR
Embora se advogue que os deep fakes vão mudar a forma como as pessoas olham para imagens e vídeos, levando-as a acreditar mais ou menos em determinada pessoa ou instituição, estas podem não ter um impacto tão profundo no comportamento, uma vez que as pessoas já selecionam a informação que vai de encontro às suas convicções. O comportamento confirmatório não é algo novo e Francis Bacon já o tinha apresentado em 1620 na obra científica e filosófica “Novum Organum” — “Uma vez que o intelecto humano tenha adotado uma opinião (...), fará tudo o resto para a confirmar e apoiar. Mesmo que existam mais e mais fortes indícios contra ela do que a seu favor, o intelecto ignora-os ou trata-os como insignificantes ou (...) coloca-os fora do caminho e rejeita-os”, lê-se. É que a formação de determinada opinião acontece numa primeira fase, à qual se segue uma busca por argumentos que a confirmem.
Nancy Pelosi já foi vítima disso mesmo este ano, curiosamente pouco depois de ter voltado a assumir a presidência da Câmara dos Representantes dos Estados Unidos. Em causa estava um vídeo em que a política norte-americana parecia estar sob efeito de álcool ou drogas, mas que nem chegava a poder ser considerado um deep fake. Tratava-se de algo amador, em que apenas a velocidade tinha sido adulterada. Ainda assim, rapidamente surgiu quem o partilhasse, considerando que Nancy Pelosi não merecia o cargo em que estava, enquanto outros afirmavam que o mesmo era falso. Já depois disso surgiu algo mais bem executado, e que contou com uma partilha do próprio Donald Trump. A sequência em que Pelosi parecia hesitar antes de falar também era falsa, mas o chefe de Estado nunca assumiu o erro. Em sentido contrário, mudou o seu discurso sobre o polémico vídeo em que proferiu a frase “Grab them by the pussy”. Depois de o ter classificado como uma conversa de balneário, agora diz que nem lhe parece que seja uma gravação da sua voz. Mais um sinal de revisionismo.
O Facebook vai investir 9 milhões de euros na criação de deep fakes para combater a tecnologia. A solução está a ser contestada e pode ser perigosa
Em termos gerais, confirma-se que o problema da desinformação vai muito além da verosimilhança do conteúdo e que as pessoas tendem a acreditar naquilo que confirma as suas visões. Mas isso não impede que um crescimento exponencial dos deep fakes leve também ao aumento de um ceticismo generalizado face à informação que encontram, mesmo que venha de uma fonte considerada credível. E estamos ainda no início, numa fase embrionária de uma tecnologia que revolucionará as noções de verdadeiro e falso. Onde será possível simular o áudio de forma individualizada — para lá das capacidades apresentadas pelo divertido assistente Duplex AI da Google —, ter acesso a ferramentas que possibilitam a remoção e adição de elementos estáticos e em movimento, utilizar marionetas digitais para colocar qualquer pessoa a dizer o que quisermos ou combinar todas as tecnologias para criar uma realidade paralela.
E tudo isto muito para lá do que o cinema, criador de fantasias, já nos mostrou. Muito acima das capacidades utilizadas em sucessos de bilheteira como “Black Panther” ou “Jurassic World”, nos quais há diversas imagens sintéticas, ou na inclusão de Carrie Fischer em “Star Wars: O Último Jedi”. E tudo isto sem esquecer que a própria Disney está a contestar uma legislação nova-iorquina que limita a utilização de deep fakes e de media sintéticos, por restringirem a liberdade criativa. Se as previsões se concretizarem, estaremos a entrar num tempo em que os nossos sentidos já não conseguem distinguir o que é real do que é falso, sem a certeza de que também possamos confiar essa tarefa a formas de inteligência artificial. Pode ser apenas uma visão distópica do futuro próximo, mas as notícias que surgem a cada dia indicam outro caminho. Este é o início de uma quase fusão entre o que é humano e não-humano, real e fabricado. Acredita? O melhor é desconfiar.
Expresso, 14 de setembro de 2019

Sem comentários: