Em seu anúncio de ontem (7/1), Mark Zuckerberg, bilionário e CEO da Meta, revelou que a gigante das redes sociais encerrará o programa de verificação digital nos Estados Unidos. Durante a declaração, ele mencionou que alguns países da América Latina mantêm “tribunais secretos”, com a intenção de remover discretamente conteúdos das plataformas. Embora não tenha feito uma menção explícita, a fala foi interpretada como uma crítica ao Supremo Tribunal Federal (STF).
O comentário ocorre enquanto o STF avalia três ações sobre as regras que as redes sociais devem seguir e sua responsabilidade em relação ao conteúdo postado. Entre os pontos analisados está a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/14), que define direitos e deveres no uso da internet no Brasil. Até agora, o placar está 3 a 0 em favor da responsabilização das plataformas.
Como a moderação de conteúdo é debatida globalmente?
A moderação de conteúdo em plataformas digitais é uma questão complexa que envolve liberdade de expressão, segurança dos usuários e a responsabilidade das empresas por informações falsas. Nos Estados Unidos, essa questão se intensificou com eventos como as eleições de 2016 e 2020, onde o papel das redes sociais na disseminação de fake news foi amplamente discutido. Em contrapartida, em países como o Brasil, o foco tem sido a interferência sobre decisões das plataformas por meio de decisões judiciais.
Qual é o papel da Meta na moderação de conteúdo no Brasil?
No contexto brasileiro, a Meta tem trabalhado em parceria com entidades governamentais para regular conteúdo e prevenir notícias falsas, especialmente durante períodos eleitorais. Em 2022, a companhia se comprometeu com o Tribunal Superior Eleitoral a monitorar e excluir desinformação nas suas plataformas. No entanto, a recente estratégia de reposicionar suas políticas nos EUA levanta dúvidas sobre possíveis mudanças nos procedimentos adotados na América Latina.
- Colaboração com o Judiciário: A Meta tem assumido um papel ativo na remoção de conteúdo considerado enganoso ou prejudicial.
- Compromissos eleitorais: Durante as eleições, a plataforma reforça suas políticas de moderação para assegurar um ambiente informativo.
- Pressões externas: As mudanças nas suas políticas globais podem ser influenciadas por lideranças políticas e novas administrações governamentais.
Qual o impacto das decisões judiciais sobre as plataformas de redes sociais?
A Meta tem colaborado com o sistema judiciário e moderado publicações que são claramente desinformativas. Durante as eleições de 2022, a plataforma — dona do Instagram, Facebook e WhatsApp — se comprometeu com o Tribunal Superior Eleitoral (TSE) a combater a disseminação de informações falsas que buscavam manipular a opinião do eleitor.
Sem alterações Segundo fontes do governo, não se espera que a Meta altere sua postura no Brasil. Para esses interlocutores, a mudança de estratégia da plataforma estaria mais relacionada à postura do futuro presidente dos Estados Unidos, Donald Trump, que é um defensor da liberdade irrestrita nas redes sociais, sem qualquer moderação. Além disso, acredita-se que Mark Zuckerberg não queira se tornar alvo do governo de Joe Biden, especialmente com a presença de Elon Musk, dono do X, que também influenciaria as questões sociais.
Nos bastidores do Judiciário, a percepção é semelhante à que circula no Palácio do Planalto. Na disputa entre Musk e o ministro Alexandre de Moraes, foi o empresário quem recuou. Para que o X fosse reativado e as contas da Starlink desbloqueadas, a representação de Musk no Brasil teve que pagar R$ 29 milhões.
Outro fator que influenciou a mudança de postura foi a pressão dos investidores das empresas de Musk, que estavam preocupados com a queda nos lucros e com a crescente concorrência de empresas como a francesa E-Space e a chinesa Space Sail. Ambas foram autorizadas pela Anatel a operar no Brasil no ano passado, quase no mesmo período em que a Starlink enfrentava o bloqueio de suas contas, condicionado ao pagamento das multas impostas por Moraes.
O que esperar no futuro da moderação de conteúdo?
Com o avanço contínuo das tecnologias e a mudança no panorama político, as empresas de redes sociais devem se adaptar constantemente. As políticas de moderação de conteúdo continuarão a ser reavaliadas à medida que novos desafios surgem. A colaboração entre governos, plataformas e usuários será essencial para desenvolver abordagens eficazes que respeitem tanto a liberdade de expressão quanto a integridade das informações.
A Meta e outras gigantes das redes sociais precisam constantemente ajustar suas estratégias para lidar com pressões internas e internacionais. A capacidade de equilibrar os interesses empresariais com as responsabilidades sociais definirá o seu sucesso nos próximos anos, à medida que as regras para o uso da web continuam a evoluir globalmente.