No dia 2 de março, as autoridades ucranianas já tinham alertado para o perigo de a Rússia utilizar vídeos deepfake com a imagem e voz do Presidente Volodymyr Zelensky, aventando mesmo a possibilidade de difusão de falsas mensagens de rendição. “Os vídeos produzidos através dessas tecnologias são quase impossíveis de distinguir dos reais. Esteja ciente de que isso é falso! O objetivo é desorientar, semear o pânico, gerar descontentamento nos cidadãos e vergar as nossas tropas à rendição”, informou então o Centro de Comunicações Estratégicas e Segurança da Informação da Ucrânia.
Dito e feito. Esta semana foi posto a circular nas redes sociais um vídeo em que Zelensky surge a pedir aos militares e civis ucranianos que pousem as armas e se rendam aos invasores russos. Através de uma operação de pirataria informática, chegou a ser transmitido em direto na “Ucrânia-24”, estação de televisão ucraniana (além de ter sido introduzido no respetivo site). A voz parece ser a de Zelensky, sincronizada com o movimento dos lábios nas imagens. Mas não passa de um vídeo deepfake, com imagens e sons manipulados.
Plataformas como o Facebook, Instagram e WhatsApp já removeram o vídeo, claramente falso, que continua porém a ser possível visualizar em algumas publicações – e artigos de jornais (do “New York Post” ao “The Telegraph“) – com o aviso de que não é autêntico.
[twitter url=”https://twitter.com/MikaelThalen/status/1504123674516885507?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1504123674516885507%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fmaldita.es%2Fmalditateexplica%2F20220317%2Fdeepfake-zelenski-ucrania-tropas-rindan%2F%3Ffbclid%3DIwAR2ATiJe3MBBIkZ6qN8sWJabODIpcqU1lyJASEEz4aqBtE8-q2kstepRnN4″/]
Aliás, em publicação na sua página no Instagram, a 17 de março, o próprio Zelensky aparece noutro vídeo (esse sim, real) a desmentir o suposto pedido aos ucranianos para se renderem. “Se posso propor a alguém que pouse as armas, é aos militares russos. Vão para casa, porque nós estamos em casa“, afirmou o Presidente da Ucrânia.
“Estamos a defender a nossa terra, os nossos filhos e as nossas famílias”, sublinhou.
Quanto ao vídeo deepfake, apesar da aparente sincronização da voz com o movimento dos lábios, não é especialmente sofisticado e há vários sinais de manipulação ou adulteração.
Desde logo a fraca qualidade (baixa resolução) das imagens, ao que acresce a posição demasiado estática do tronco (em contraste com a cabeça que se movimenta), as expressões faciais estranhamente rígidas e, por fim, algumas falhas quase imperceptíveis na referida sincronização. Ainda assim estava a ser partilhado por muitas pessoas que julgavam ser real.
______________________________
Avaliação do Polígrafo: