segunda-feira, 19 de janeiro de 2026

Deepfakes e a crise epistemológica do cotidiano

Uma cacatua grita “Alexa, play music!” e diante da execução do comando começa a dançar, enquanto a dona grita, exasperada, de fora do quadro, que são duas da manhã. O vídeo curto é engraçado e pode ser real. Ou pode ter sido criado por inteligência artificial. Não sei. Vejo um outro vídeo, um homem mostra os detalhes que atestam que o referido vídeo da cacatua é falso. Ele dá argumentos lógicos e me convence. Porém, não entendo de IA para ter certeza de que o ele fala é fato. Mais, pode ser que esse entendido em IA seja ele também criado por IA - e não saberei identificar, a não ser que outro vídeo venha me provar sua falsidade ou não.

O grau de realismo alcançado com as deepfakes e a facilidade com que são criadas são assustadores. Para além de usos nocivos mais imediatos, como golpes de todos os tipos e interferências nas eleições (que não deixa de ser uma espécie de golpe, mas a vítima é coletiva), vislumbro que essa tecnologia, caminhando para seu paroxismo, sinaliza um problema de ordem epistemológica.

Se a pós-verdade, a hegemonia da opinião sobre o fato, da doxa sobre a episteme, já provocou cisões na sociedade, na sociabilidade; os deepfakes ultra-realistas tem potencial para levar à dúvida de tudo e de todos, em um movimento de descrença generalizado - não se trata mais de desdenhar do fato em prol da explicação mais lógica para seu sistema de crenças, mas de não poder verificar o fato para tirar qualquer conclusão a partir do que se viu. No nosso dia a dia dentro da internet, realidade e falsidade passam a ter exatamente a mesma aparência.

É possível que a ciência, a academia, tenha ferramentas para fazer essa distinção de modo seguro, a ponto de não afetar a produção científica (não vou entrar neste assunto, mas em vídeo na internet, a historiadora portuguesa Raquel Varela sugere a supressão da IA no ensino [bit.ly/4qPa5j5]). Primeiro porém: o tempo da política (entendido aqui como tempo da sociedade) não é o tempo da ciência: o desmentido de uma informação não sai de pronto, exige certo tempo, que por mais que seja curto, dificilmente será da velocidade com que uma notícia falsa, um vídeo deepfake se alastra. Segundo problema: a própria divulgação científica hoje depende da internet, e a lógica de circulação da informação não é de se buscar os canais oficiais, e sim repassar o que se recebe. Novamente o problema da fala de um especialista poder ser uma deep fake dele próprio - Dráuzio Varela é uma das personalidades mais usadas para aplicação de golpes na internet [bit.ly/3LgHqEG]. 

Poderíamos confiar na mídia? Para além do viés de suas publicações, deixando de lado muitas notícias de importância para a população em geral, vale lembrar que ela também não raro acaba por reproduzir seus preconceitos ao invés de se ater ao fatos. Um ótimo exemplo do viés de confirmação da mídia foi a “trolagem” do Não Salvo, enganando quase o mundo todo, do Guardian ao New York Times, passando pelo UOL e Globo, com a notícia de que a Coreia do Norte estaria noticiando que ganhara a copa de 2014 [bit.ly/4b36NEt]. Teríamos ainda os fact-checks, mas esses também são conduzidos majoritariamente pela mídia hegemônica, com auxílio da academia, e recaem nos problemas acima assinalados.


Diante disso, correr atrás de desmentir o deepfake e a fake news não é uma alternativa. De desmentido em desmentido, corrói-se a confiança como um todo - e hoje a internet tem uma relevância enorme como fonte de informação e meio de socialização. 

Que tomemos todas as precauções possíveis para não sermos enganados por uma deepfake, como saber que as pessoas dos nossos círculos, com quem compartilhamos dos mesmos pressupostos, tiveram o mesmo cuidado, e a opinião que formaram não foi com base em um vídeo falso? Como confiar nas novidades do mundo que as pessoas próximas nos contam?

Não se trata, portanto, apenas do receio de um deepfake imitar uma pessoa próxima para aplicar um golpe, mas de pôr em dúvida a pessoa em carne e osso na nossa frente, de que aquilo que ela sabe de fato aconteceu, e não são fakenews, deepfakes.

Não acredito que haverá uma regressão na tecnologia, de modo a evitar essa situação; tenho dúvidas que a regulação dará conta dessa questão; creio antes que precisaremos atravessar essa crise epistemológica para criar repertório que nos permita recobrar a confiança nos próximos - e em nós mesmos, em última análise. Até lá, tempos difíceis se desenham.


12 de janeiro de 2026

Vídeo criado por IA

sexta-feira, 9 de janeiro de 2026

Uma vacina para as deepfakes?

Em 2016 “pós-verdade” era escolhida a palavra do ano pelo dicionário Oxford. O conceito diz respeito à decadência da relevância de fatos objetivos em prol de uma narrativa carregada de emoções que corrobora o viés de confirmação da pessoa, mais que uma interpretação, é uma manipulação do fato. Dez anos atrás, para uma fake news, via de regra, era preciso recortar um fato - ou criar um factóide - e alimentar uma narrativa a respeito, com forte apelo emotivo. Era necessário tempo, repetição, múltiplas abordagens. Não que isso fosse algo novo: a verdadeira novidade era a perda do controle dessa narrativa por parte do estado ou dos entes paraestatais, em especial a mídia hegemônica (poderia citar o sequestro de Abílio Diniz, em 1989, ou então citar Foucault, que comenta de expediente similar no século XVIII). 

Junto com as fake news, outro fator comportamental que impacta na emergência da pós-verdade são as redes sociais. Com seus perfis segmentados e publicidade direcionada, a internet afetou profundamente a ágora, o espaço público de debate público e político, transformando o que antes era uma discussão aberta - não que necessariamente fosse democrática, mas ao menos sabíamos o que estava sendo discutido - em discussões nichadas, feitas em bolhas. Descobrimos isso de modo muito amargo em 2018 - em que gritávamos para nós mesmos “ele não”.

Os avanços da IA generativa nos levam a um novo patamar da pós-verdade. Não é preciso desenvolver minuciosamente uma narrativa, concatenando pontos diversos para encaminhar uma conclusão (como reportagens sobre casos de corrupção, oleodutos cuspindo dólares, discurso de que o país estaria quebrado, para concluir que a culpa era da esquerda e do PT), um vídeo único pode acabar sendo uma prova quase cabal de algo cujo contexto já esteja minimamente pronto (em geral, contexto ditado pela extrema-direita e forças conservadoras). E, novamente, a esquerda parte em desvantagem. Não somente porque estamos num contexto enviesado, de criminalização e satanização (nestes tempos de ascensão religiosa, este termo cabe) das esquerdas e de forças progressistas, o que facilita um evento absurdo poder ser considerado verdadeiro, como por questões financeiras, algorítmicas e mesmo éticas - já que a mentira aberta não é uma estratégia da esquerda brasileira, diferente da extrema-direita, que atua sem pudores.

Em minha bolha, influenciadores de esquerda começam a se mexer contra as deepfake que certamente inundarão o país na época eleitoral (ou alguém espera que Kassio Nunes e André Mendonça, respectivamente presidente e vice do TSE na hora do pleito, vão se mexer para tentar evitar esse tipo de crime?). E fazem-no com uma estratégia que me parece bastante inteligente: ao invés de pegar casos e centrar nos possíveis usos eleitorais - vamos reconhecer, para quem trabalha em escala 6x1, limpa a casa, cuida dos filhos e precisa se divertir, fica difícil achar energia para ainda se debruçar sobre a política institucional -, mostram como uma deepfake é feita e como ela pode afetar nosso dia-a-dia, com golpes de todo tipo. 

Esses vídeos soam uma possível vacina contra as deepfakes no período eleitoral. E, ao mimetizar aquilo que foi muito utilizado na campanha do mensalão e anti-petista na mídia hegemônica (e na qual não há qualquer questão ética), eles não dão a mensagem direta, antes entregam as premissas, mas deixam a conclusão óbvia para quem o assiste - que vai, assim, se achar muito sagaz por ter chegado à conclusão de que políticos podem querer mentir usando deepfakes.


09 de janeiro de 2026