Nem só de correntes de WhatsApp vivem as teorias conspiratórias e Fake News – o YouTube é uma plataforma relevante para a disseminação de informações falsas e, durante a pandemia de covid-19, tem sido um local onde circulam mentiras perigosas que vão desde narrativas culpando a China pela “fabricação” do vírus a minimização dos riscos da doença, passando, inclusive pela venda de produtos que teriam o poder de prevenir a contaminação. Esses são alguns dos achados do relatório de pesquisa “Ciência Contaminada – Analisando o contágio de desinformação sobre o coronavírus via YouTube”, publicado na semana passada. O relatório é referente à primeira fase do estudo que analisou 11.526 vídeos do YouTube entre 01 de fevereiro e 17 de março desse ano. O trabalho é fruto da colaboração entre o Centro de Análise da Liberdade e do Autoritarismo (LAUT), o Centro de Estudos e Pesquisas de Direito Sanitário (Cepedisa), ligado à Universidade de São Paulo (USP) e o Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT.DD) da Universidade Federal da Bahia e assinado por quatro pesquisadores, numa equipe multidisciplinar composta por advogados, jornalistas e um médico.
Uma das autoras é Nina Santos, pesquisadora em pós-doutorado no INCT.DD, doutora em Comunicação pela Université Panthéon-Assas/Paris II e professora substituta da Faculdade de Comunicação da UFBA. Ela conversou com o Brasil de Fato BA sobre algumas das principais descobertas do estudo e refletiu sobre os riscos que esses canais de desinformação representam para o controle da pandemia. Os vídeos analisados, por exemplo, segundo o relatório, somam 486 milhões de visualizações e, através do sistema de recomendações da plataforma, constituem redes, comunidades nas quais existe forte rejeição à ciência. “A gente buscou por todos os vídeos que tinham a palavra ‘coronavirus’, em qualquer parte, seja no título ou nas descrições. Depois a gente pegou esses vídeos e coletou todos os que eram recomendados a partir desses vídeos iniciais e que também falavam sobre coronavírus. Então, a partir daí, a gente fez essa rede que ajudou a identificar essas diferentes comunidades. A gente vai nessa linha de considerar que a recomendação é uma parte essencial de como as pessoas navegam nesses conteúdos porque é claro que existe uma curiosidade, uma busca ativa sobre esses temas, mas existe também o fato de que as pessoas às vezes estão vendo coisas completamente desconexas e acabam chegando a vídeos de coronavirus”, explicou Nina.
Nesse primeiro relatório foram destacadas três comunidades principais: a rede das teorias da conspiração, que concentram 26 milhões das visualizações e propagam mentiras de cunho mais geopolítico, como as que chamam o vírus de “arma biológica” fabricada em laboratório ou que acusam a China de esconder a cura como parte de um plano de desestabilização do ocidente; outra rede é a religiosa, com mais 11 milhões de visualizações onde circulam ideias sobre “punição divina” e “praga de Deus”, também associadas a anticomunismo e conservadorismo moral; ainda, com 35 milhões de visualizações, existe a comunidade dos “médicos”, ou pessoas que se passam por médicos e usam a pandemia como oportunidade de negócios vendendo produtos para “aumentar a imunidade” e recomendando exercícios e alimentação saudável como fatores determinantes para evitar a covid-19. “Uma das conclusões que a gente vai ter no final do relatório é esses fenômenos são ainda mais danosos porque o combate a essa pandemia basicamente em questões comportamentais”, afirma Nina. Do lado positivo, a pesquisa também conclui que os vídeos de veículos jornalísticos tradicionais e com informações fidedignas têm um alcance relevante, embora circulem menos do que os mentirosos. O próximo relatório, segundo Nina, irá focar na circulação de informações sobre a cloroquina, abrangendo vídeos entre o final de março até o início de maio. Abaixo, os principais trechos da entrevista
Brasil de Fato: Para começar, um pouco de contexto: o fenômeno da desinformação tem sido investigado por campos diversos de estudo – antropologia, filosofia, psicologia e comunicação. Você acha que isso deve à própria natureza complexa do fenômeno? E onde você e o seu trabalho se situam?
Nina Santos: De fato, esse fenômeno da disseminação de informações falsas, além de não ser um fenômeno novo na sociedade, tem impactos sociais muito profundos. Impactos e razões de existência social muito profundos. Então, de fato, ele é um fenômeno multidisciplinar e tem sido abordado por diversas disciplinas. Ao mesmo tempo em que ele é um fenômeno de comunicação, evidentemente, porque se trata de informações que se espalham socialmente, muitas vezes baseadas no modelo de notícia, mas não só; também tem a ver com o que muitos autores vão chamar de “crise epistêmica”, que é a crise desses centros legitimados de produção de conhecimento e de ‘verdades’ – então as críticas à ciência, às universidades, à própria imprensa, ao Estado, aos políticos, às instituições democráticas de forma geral. Isso tudo gera uma dificuldade de ter consenso sobre quem pode produzir conhecimento sobre o nosso mundo, as nossas sociedades. E é a partir desse problema que a disseminação de informações falsas é facilitada. É claro que tem uma relação aí com a questão tecnológica ou dos usos da tecnologia de comunicação digital, mas tem também um contexto social muito profundo que vai dar base para esse fenômeno. Nosso estudo parte do campo da comunicação – então vai usar análise de rede, lexical e qualitativa para caracterizar esses centros de construção de discursos falaciosos sobre o coronavírus mas ele não se restringe a isso. Não é à toa que a nossa equipe tem tanto pesquisadores da comunicação quanto do direito e da saúde. Nosso objetivo é um pouco maior do que o próprio campo da comunicação do sentido de que cruza também com essa intensão de compreender até onde vão as limitações e as possibilidades legais de lidar com esse fenômeno – que foi algo que a gente até explorou pouco nesse primeiro relatório, mas que a gente espera explorar mais nos próximos e, sobretudo, quais são os impactos desse tipo de dinâmica comunicacional sobre um fenômeno de saúde pública que é a pandemia do coronavírus. Então, uma das conclusões que a gente vai ter no final do relatório é esses fenômenos são ainda mais danosos porque o combate a essa pandemia basicamente em questões comportamentais. Você tem que convencer as pessoas a terem determinados comportamentos para evitar que essa doença se espalhe. Você não tem medidas farmacológicas, você não tem uma vacina, você não tem um remédio... Então como essa questão comportamental é muito central, a comunicação acaba ganhando uma dimensão ainda maior.
No seu trabalho, “Ciência Contaminada”, você e os demais autores analisaram como circula a desinformação na plataforma YouTube. Especialmente aqui no Brasil, é o WhatsApp que mais vem à mente quando a gente fala em notícias falsas e teorias da conspiração. Por que você avalia que estudar o YouTube também é importante? Acha que faltam mais trabalhos sobre essa plataforma?
A nossa escolha pelo YouTube se baseou em vários critérios: o primeiro é a audiência do YouTube no Brasil que está estimada em 120 milhões de usuários; o segundo é o próprio consumo de vídeos, então o YouTube é a segunda maior rede social do mundo e, no Brasil, tem 15% da participação dos vídeos assistidos, atrás apenas da TV Globo. Então a gente considera que esse é um ambiente de comunicação muito significativo e que precisa ser levado em conta quando a gente fala em questões de desinformação. A segunda questão, como você falou na sua própria pergunta, o WhatsApp tem sido um centro muito importante de disseminação de informações falsas, mas vários estudos têm apontado que os links que circulam no WhatsApp, os conteúdos que circulam no WhatsApp, eles vêm majoritariamente do YouTube. Entendendo como funciona o YouTube, quais as redes que estão montadas ali, quais são os discursos que circulam ali a gente consegue entender também o que acontece em outros lugares. É muito importante a gente ressaltar que hoje pensar comunicação não pode ser pensar uma mídia [apenas].
Um dos resultados da sua pesquisa é que médicos e/ou pessoas que possuem alguma autoridade encontraram um mercado lucrativo ao espalhar desinformação – monetizando os vídeos ou vendendo produtos que prometem “prevenção” ou “cura” da covid-19. Ao mesmo tempo, existe um ambiente anticiência que favorece a proliferação desses conteúdos. Como essa aparente contradição se sustenta nas redes?
De fato uma das redes mais importantes que a gente encontrou no YouTube é uma rede que se baseia no discurso médico, então são médicos ou pessoas que se passam por médicos e que estão ali basicamente anunciando uma cura fácil para o coronavírus. Normalmente são discursos muito ligados à questão da imunidade, hábitos saudáveis, alimentação, tem também uma relação com a coisa do emagrecimento, e que acaba por desprezar todas as recomendações oficiais de distanciamento social, de pouco contato entre as pessoas e tudo mais. Então essa rede, uma das características marcantes dela, é justamente o fato de que nos comentários as pessoas costumam usar, por exemplo, a palavra doutor para se referir a esses vídeos, o que mostra que de fato a identificação entre quem está assistindo a esses vídeos e o conteúdo deles passa pelo fato deles verem nessas pessoas um determinado tipo de autoridade, essa autoridade médica. E aí para responder essa questão da contradição com o movimento anticiencia, os ataques à ciência, acho tem algumas questões: a primeira é que o ataque à ciência como centro de produção de conhecimento sobre a sociedade ele às vezes se desfaz quando a ciência serve aos seus próprios interesses e a suas próprias crenças. É o que o professor Wilson Gomes [coordenador do INCT.DD] vai chamar de ‘epistemologia tribal’, ou seja, serve aquele conhecimento que interessa ao meu grupo, à minha tribo, ao que eu já acredito. Então se o médico está falando ali que a beterraba mata mais que o coronavírus e eu acho que o coronavírus é uma balela, então eu vou dar valor para esse tipo de conhecimento, não porque ele é um conhecimento supostamente científico, mas porque ele reforça conhecimentos, crenças, que o meu grupo já tem. E aí tem uma outra questão também que eu acho que se coloca aí, que é o momento atual: o momento de pandemia, ele faz com que a busca por atores do campo médico e científico cresça muito. Ainda que haja uma certa descredibilização desse campo há também uma busca por entender o que essas pessoas estão dizendo. Então é uma contradição aparente, mas eu acho que diz muito sobre o momento que a gente está vivendo.
Uma outra questão, que até se relaciona com a pergunta anterior é que nem sempre o que a gente chama de Fake News é inteiramente fabricado, mas pode ter algum lastro factual, que é distorcido – a questão do tratamento da covid com a cloroquina é um exemplo: só recentemente foi comprovada a ineficácia, mas antes havia de fato pesquisas em andamento testando a droga. Isso foi observado na sua pesquisa?
De fato as Fake News não necessariamente são inteiramente fabricadas, existem vários esforços aí de tentar uma tipologia dessas informações falsas que passam por diversas etapas, mas em geral as Fake News vão ter sempre um lastro social, nunca é uma coisa completamente inventada do nada, que não faz nenhum sentido para as pessoas. É preciso que exista algum nível de identificação das pessoas com essa informação para que ela consiga repercutir socialmente. Então o que a gente trabalha no relatório, a gente na verdade não trabalha com o termo Fake News, porque a gente não está analisando notícias, a gente está analisando informações. Então a gente trabalha com o termo informações falsas e com o termo desinformação, pensando que, na verdade, a desinformação ela é resultante do processo de disseminação de informações falsas. Porque ninguém que recebe um conteúdo acha que recebeu uma desinformação. O conteúdo em si não é uma desinformação, ele provoca a desinformação. Aí a gente incluiu nessa noção de informações falsas tanto informações como o que você falou, a questão da cloroquina... a gente não tratou da questão da cloroquina nesse primeiro relatório porque ele vai até meados de março, a gente vai tratar num segundo relatório que deve sair em breve. Mas a gente tem por exemplo o jornalista Alexandre Garcia que diz em um de seus vídeos que o vírus da covid-19 se disseminaria menos em países quentes. E ele fala isso em um momento em que ainda havia muita dúvida sobre como esse vírus se comportaria, mas ele fala isso como uma afirmação, ele afirma que o vírus circularia menos e que, portanto, o Brasil sofreria menos por ter um ‘calorzinho bom’ como ele diz. Então o fato dele fazer uma afirmação sobre algo que não tem nenhuma evidência cientifica, que no momento era uma dúvida cientifica e hoje se sabe que é completamente falso, pode ser considerado, segundo a gente interpretou nesse relatório como uma informação falsa. Você está dizendo para as pessoas algo que você não tem base científica. Base real para dizer. E inclui também discursos do tipo conspiratórios, alusões às intenções chinesas de disseminar esse vírus. Quando a gente fala dos médicos, eles não só dão informações falsas (como o fato de que bastaria você ter uma boa imunidade para você não ser contaminado pelo vírus), como eles também escondem as informações médicas, optam por não divulgar as informações que estão sendo recomendadas pelas organizações científicas e médicas internacionais. Então a gente coloca tudo isso aí num grupo de informações que são danosas ao debate público durante uma pandemia onde as ações comportamentais são o único modo de combatê-la.
Leia aqui o relatório completo da pesquisa.
Edição: Elen Carvalho