Nos últimos dias, foi anunciado que a Meta — empresa que controla Facebook, Instagram e Threads — estaria encerrando seu programa de checagem de fatos. Ao mesmo tempo, surgiram denúncias de que as novas diretrizes abrem margem para associações do público LGBTQIA+ a doenças mentais. Neste post, vamos entender como a checagem de fatos funcionava antes, o que muda agora, quais os impactos para a verificação da verdade, os possíveis problemas com o governo brasileiro e por que a decisão se tornou tão polêmica.
Como era a checagem de fatos antes
Até então, a Meta possuía parcerias com agências independentes de verificação de fatos (fact-checking). Essas entidades:
- Analisavam publicações denunciadas ou que apresentavam indícios de serem falsas.
- Classificavam o conteúdo como “enganoso”, “falso” ou “informação não comprovada”.
- Aplicavam avisos de alerta para os usuários, reduzindo o alcance da postagem ou marcando-a como potencialmente enganosa.
Esses procedimentos visavam combater a disseminação de fake news e proteger os usuários de informações comprovadamente falsas — incluindo teorias conspiratórias sobre política, saúde pública e outros assuntos sensíveis.
Como vai ser agora
Com o fim da checagem de fatos: Veja aqui o video completo da declaração do Zuck
- Fim das parcerias externas: As agências especializadas deixam de atuar diretamente no Facebook, Instagram e Threads.
- Mais responsabilidade do usuário: A Meta afirma que cada pessoa deve ter liberdade para avaliar a veracidade do que lê e compartilha.
- Novos relatórios de remoção: Conteúdos que violem diretamente leis ou incitem violência ainda serão removidos, mas agora sem o filtro inicial de “fact-checkers” externos.
Na prática, o usuário não verá mais aquele aviso clássico de “este conteúdo foi verificado e considerado falso”, e postagens consideradas duvidosas não terão alcance reduzido exclusivamente com base em checagem.
Qual a diferença?
A grande mudança é que, antes, havia um sistema estruturado — e até certo ponto transparente — de contenção de notícias falsas. Agora:
- Menos filtros: O alerta de “fake news” praticamente deixa de existir.
- Livre mercado de opiniões: A Meta reforça a liberdade de expressão, mas abre espaço para que boatos e teorias conspiratórias se espalhem mais facilmente.
- Maior ônus para o usuário: Quem quer ter certeza de algo precisa buscar fontes confiáveis por conta própria, pois a plataforma não fará mais esse “intermédio”.
Por que isso impacta a verificação da verdade?
Sem a checagem de fatos oficial, a divulgação de informações falsas ou distorcidas tende a crescer. Isso afeta diretamente:
- Formação de opinião: Em época de eleições, por exemplo, a falta de um selo de “falso” pode dar credibilidade a boatos.
- Saúde pública: Questões como vacinas e pandemia podem voltar a ser alvo de desinformação, colocando pessoas em risco.
- Debate público: A ausência de um sistema de verificação centralizado pode transformar as redes em um “vale-tudo” de informações, dificultando a construção de consensos mínimos.
Possíveis problemas com o governo brasileiro
O governo brasileiro tem se posicionado, nos últimos anos, de forma mais ativa no combate às fake news — especialmente após escândalos envolvendo eleições e desinformação em massa. Com essa decisão da Meta:
- Pressão regulatória: Pode haver maior movimentação para aprovar leis ou medidas que responsabilizem as redes pela disseminação de conteúdo falso ou difamatório.
- Conflitos jurídicos: Projetos de lei no Brasil já discutem como punir plataformas que não moderam conteúdo considerado criminoso ou ofensivo. A mudança anunciada pela Meta pode acelerar esses debates.
- Fiscalização mais rígida: Autoridades podem exigir que a empresa apresente relatórios de moderação e busque soluções para o aumento da desinformação.
A polêmica: permissão de postagens associando público LGBTQIA+ a doenças mentais
Um dos pontos mais críticos que emergiu dessas novas diretrizes é a possibilidade de conteúdos que associem a comunidade LGBTQIA+ a doenças mentais passarem sem ser removidos ou marcados como discurso de ódio. Antes, a checagem de fatos e as políticas de moderação da Meta poderiam sinalizar ou bloquear esse tipo de post. Agora:
- A brecha no discurso de ódio: Com a justificativa de promover a “liberdade de expressão”, há um receio de que ofensas e falas discriminatórias contra minorias — incluindo a falsa associação de identidade de gênero ou orientação sexual a distúrbios psicológicos — fiquem mais visíveis ou até mesmo impunes.
- Impacto emocional e social: Para a comunidade LGBTQIA+, ver disseminada a ideia de que sua identidade é “uma doença mental” reforça estigmas e pode incentivar episódios de violência e preconceito.
- Reação pública: ONGs e movimentos de defesa dos direitos humanos veem nisso um enorme retrocesso, alertando que a ausência de um filtro contra desinformação pode facilitar a propagação de conteúdo que viola direitos básicos de dignidade e respeito.
A decisão da Meta de encerrar a checagem de fatos e adotar diretrizes mais amplas para a moderação de conteúdo já está gerando debates acalorados no Brasil e no mundo. Por um lado, Mark Zuckerberg argumenta que a medida protege a liberdade de expressão e reduz o risco de “censura”. Por outro, a falta de mecanismos claros de verificação ou bloqueio de desinformação deixa espaço para que discursos falsos e preconceituosos circulem ainda mais livremente.
Quando o assunto envolve política, saúde pública e direitos de grupos historicamente marginalizados, as consequências são graves. Para muitos, a Meta está dando um passo arriscado que pode cobrar um alto preço na forma de desinformação, ataques a minorias e atritos com governos ao redor do planeta. Resta saber como a empresa vai lidar com a pressão social, jurídica e política que essas mudanças certamente vão gerar.