Moderação de conteúdo pelas mídias sociais
Content moderation by social media
DOI: 10.19135/revista.consinter.00017.13
Recebido/Received 28/06/2023 – Aprovado/Approved 10/08/2023
Caio Miachon Tenorio[1] – https://orcid.org/0000-0002-8404-7695
Diogo Rais Rodrigues Moreira[2] – https://orcid.org/0000-0002-3956-4714
Resumo
A democratização da comunicação de massa trazida pela internet trouxe muitos benefícios, mas também muitos desafios, dentre eles a desinformação. Como forma de combatê-la, muitas mídias sociais recrudesceram as regras de utilização de suas plataformas, com o objetivo de impedir que suas ferramentas fossem utilizadas para divulgação de notícias falsas. Embora a moderação realizada pelas mídias sociais não seja algo novo, algumas decisões judiciais e iniciativas legislativas vêm colocando em xeque esses instrumentos. O objetivo deste artigo é investigar se a legislação brasileira, ao destinar ao Judiciário a remoção de conteúdo, teria também excluído desta função os provedores de aplicação, em especial diante da desinformação online. Partindo da seguinte problematização: Diante da desinformação online os provedores tiveram seus poderes restringidos e dependeriam de ordem judicial para a remoção de conteúdo de terceiro? Algumas das hipóteses é que a legislação, em nome da liberdade de expressão e proibição de censura, teria realmente limitado a atuação das plataformas digitais, ou se a legislação se refere apenas a intervenções externas às plataformas, e poderia ser compreendida como complementar às políticas dos provedores restando a ambos a moderação deste conteúdo. A partir de metodologia dedutiva e se utilizando de procedimentos de revisão de literatura e análise jurisprudencial, as hipóteses serão testadas resultando em sua confirmação, refutação ou reconstrução. Após a presente pesquisa os resultados apontam para uma compatibilidade entre o art. 19 do Marco Civil da Internet e a prática de moderação de conteúdo por parte dos provedores de aplicação.
Palavras-chave: Mídias Sociais; Desinformação online; Moderação de Conteúdo; Liberdade de Expressão; Autorregulação.
Abstract
The democratization of mass communication brought by the internet has brought many benefits, but also many challenges, among them disinformation. As a way to combat it, many social media have tightened the rules for using their platforms, with the aim of preventing their tools from being used to spread fake news. Although moderation by social media is not new, some court decisions and legislative initiatives have put these instruments in check. The aim of this article is to investigate whether Brazilian legislation, by assigning the removal of content to the judiciary, would also have excluded application providers from this function, especially in the face of online disinformation. Starting from the following problematization: In the face of online disinformation, have providers had their powers restricted and would they depend on a court order to remove third-party content? Some of the hypotheses are that the legislation, in the name of freedom of expression and prohibition of censorship, would have really limited the performance of digital platforms, or if the legislation refers only to interventions external to the platforms, and could be understood as complementary to the policies of the providers, leaving both to moderate this content. From deductive methodology and using literature review procedures and jurisprudential analysis, the hypotheses will be tested resulting in their confirmation, refutation or reconstruction. After the present research, the results point to a compatibility between art. 19 of the Marco Civil da Internet and the practice of content moderation by application providers.
Keywords: Social Media; Online Disinformation; Content Moderation; Freedom of Expression; Self-Regulation.
Sumário: 1. Introdução; 2. O cenário e a desinformação; 3. Liberdade de expressão, governança da internet e reserva de jurisdição; 4. Autorregulação x Legalidade; 5. Considerações Finais; 6. Referências.
1 INTRODUÇÃO
A internet transformou nossas vidas em diversos sentidos, e dentre eles, foi capaz de transformar o papel da comunicação. Tradicionalmente conhecemos a comunicação como aquele conteúdo que é enviado do emissor ao receptor, e assim, as comunicações em massa seguiam esse mesmo trajeto, o que ficou conhecido como comunicação de “um para muitos” como é no rádio, na imprensa escrita e na televisão.
Mas a internet revolucionou esse quadro e a comunicação passou a ter outro desenho, a tradicional comunicação de um para muitos, passou a ser uma comunicação de “muitos para muitos”, onde os papéis de emissor e receptor de conteúdo se fundem e a chamada democratização da comunicação de massa foi trazida pela internet desde as já antigas salas de bate-papo.
Esse redesenho trouxe enorme desafios à liberdade de expressão, já que qualquer pessoa com acesso à rede tem condições de divulgar mensagens sobre qualquer assunto e atingir um número incontável de pessoas, potencializando e ampliando o exercício da livre manifestação de pensamento.
Com a transformação da tecnologia e da comunicação as chamadas big techs, grandes empresas de tecnologia com alcance global, foram criadas e assumindo um papel cada vez mais relevante e desafiador neste cenário. Na década de 70 com a Microsoft e Apple, no final dos anos 90 com Google e no início dos anos 2000 com o Facebook, as plataformas digitais expandiram esse processo comunicacional trazendo ao Direito novos desafios.
O Marco Civil da Internet, a Lei 12.965 de 2014, que ficou conhecido como a Constituição da internet no Brasil, procurou regulamentar todo esse processo definindo os primeiros passos diante do desafio e seu art. 19 tratou especificamente da responsabilidade por danos decorrentes de conteúdo gerado por terceiros.
Seu teor já demonstra por si os dilemas de sua criação, uma vez que se inicia com semelhanças às conhecidas cartas de intenções definindo em seu caput suas premissas e objetivos como: assegurar a liberdade de expressão e impedir a censura.
É curioso um dispositivo que busca a responsabilização iniciar seu texto justamente com a justificativa de sua existência, mas foi assim que o Brasil determinou uma espécie de subsidiariedade da responsabilidade dos provedores de aplicação perante o conteúdo de terceiros.
Como decorrência dessas premissas, determinou que cabe à ordem judicial específica a responsabilidade das plataformas digitais diante desses conteúdos: “somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências [...]”[3].
O objetivo do presente artigo reside justamente em investigar se o art. 19 do Marco Civil da Internet, ao destinar ao Judiciário uma espécie de monopólio para a remoção de conteúdo de terceiros, teria também excluído desta função os provedores de aplicação, em especial diante do fenômeno da desinformação online.
Mais precisamente, a problematização aqui poderia ser sintetizada com a seguinte pergunta: Os provedores de aplicação, diante do art. 19 do Marco Civil da Internet, teriam tido seus poderes restringidos e dependeriam de ordem judicial para a remoção de conteúdo de terceiro, em especial diante da desinformação online, ainda que diante de suas próprias plataformas digitais?
Algumas hipóteses que surgem a partir deste problema de pesquisa é que a legislação brasileira, em nome da liberdade de expressão e proibição de censura, teria realmente limitado a atuação das plataformas digitais perante conteúdo de terceiro; ou o art. 19 tacitamente, se refere apenas a intervenções externas às plataformas, e poderia ser compreendido como complementar às políticas dos provedores de aplicação, destinando ao judiciário e aos provedores de aplicação a possibilidade de restringir conteúdos de terceiros.
A partir da metodologia dedutiva o presente artigo busca seguir o trajeto de uma espécie de cadeia de raciocínio partindo da análise geral para a específica, até suas conclusões, buscando a utilização de procedimentos de revisão de literatura, raciocínio e, em certa medida empirismo, as hipóteses poderão ser testadas resultando em sua confirmação, refutação ou reconstrução.
Após a presente pesquisa os resultados apontam para uma compatibilidade entre o art. 19 do Marco Civil da Internet e a prática de moderação de conteúdo por parte dos provedores de aplicação, conforme pretende-se demonstrar ao longo do desenvolvimento deste artigo.
2 O CENÁRIO E A DESINFORMAÇÃO
A realidade digital mudou a relação da sociedade com seu tempo, naquilo que Ricardo Campos apresenta como uma ruptura epocal se comparada à era do livro impresso[4], modificando a lógica da comunicação tradicional.
No Brasil, um bom exemplo dessa expansão é o número cada vez maior de brasileiros com acesso à rede que, em 2021, segundo pesquisa do IBGE (Instituto Brasileiro de Geografia e Estatística), chegou a 90% dos domicílios brasileiros, sendo que, dentre os 183,9 milhões de pessoas com dez ou mais anos de idade no país, 84,7% utilizaram a internet no período[5].
Diferentemente do que ocorria há alguns anos atrás, os usuários da rede mundial de computadores também atuam como produtores de conteúdo, exercendo o direito de informar e influenciar comportamentos, atuando de forma ativa não apenas como meros ouvintes, tal como costumeiramente se dava na imprensa tradicional, transformando a internet e, principalmente, as mídias sociais em um imenso fórum de debates[6].
Nesse aspecto, as mídias sociais ganharam papel de grande destaque para manifestações populares. Atualmente, mais de 59,3% da população mundial é composta de usuários de redes sociais. Os usuários dessas plataformas cresceram 190 milhões em 2021, atingindo um total de 4,74 bilhões no início de outubro de 2022[7].
Esse gigantesco palco erigido pelas mídias sociais transferiu à rede grande parte do exercício da cidadania. Por outro lado, da mesma forma que a internet trouxe muitos benefícios, a web também trouxe muitos desafios, dentre eles a chamada desinformação. Resumidamente, o conceito de desinformação pode ser traduzido como informações falsas, imprecisas ou enganadoras criadas com o objetivo de causar prejuízo de maneira proposital ou para fins lucrativos[8].
O significativo aumento da desinformação é uma realidade difícil de ignorar e ficou ainda mais preocupante com a pandemia do novo Coronavírus (COVID-19), já que as mídias sociais, ao tempo em que ocupam cada vez maior importância no espaço da comunicação de massa, são também utilizadas para manipulação social organizada. O debate sobre desinformação também envolveu o Tribunal Superior Eleitoral durante as eleições de 2022, em razão das notícias fraudulentas que colocavam em dúvida a confiabilidade do sistema eleitoral brasileiro[9]. O próprio Supremo Tribunal Federal, no julgamento da ADPF 572, demonstrou grande preocupação com os efeitos das chamadas fake news sobre a democracia e as instituições[10].
A questão crucial relevada é que desinformação cria uma atmosfera de incerteza e desconfiança, alimentando e ampliando a polarização de opiniões na sociedade[11], o que pode resultar em atos de violência. Exemplo disso foi o evento do dia 8 de janeiro de 2023 em Brasília, capital brasileira, quando extremistas e radicais de extrema direita – que, com base em notícias falsas sobre uma suposta fraude eleitoral, rejeitavam o resultado das eleições presidenciais brasileiras de 2022 – procederam à infame invasão e destruição das dependências do Supremo Tribunal Federal, Congresso Nacional e Palácio do Planalto[12].
Sob essa perspectiva, a regulação de condutas abusivas em um ambiente descentralizado não é tarefa simplória. No Brasil, o Marco Civil da Internet regulamentou direitos e deveres no âmbito da rede, e, em seu artigo 19, atribuiu às mídias sociais o dever de remoção de conteúdo cibernético apenas mediante ordem judicial, ressalvadas as expressas exceções legais. Ocorre que a desinformação vem tomando contornos cada vez mais sofisticados, de modo que o Poder Judiciário, mesmo sendo um importante ator no controle de abusos, não tem condições de atuar com a celeridade necessária à regulação do conteúdo online, pela falta de expertise para combater a produção e divulgação de fake news[13].
Por essa razão, a ideia de moderação de conteúdo feita pelas próprias mídias sociais, também conhecida como “autorregulação”, ganhou destaque nos últimos anos. Isto é, sem prejuízo do controle jurisdicional, algumas mídias sociais recrudesceram as regras de utilização de suas plataformas para proibir, por exemplo, desinformação sobre o processo eleitoral brasileiro[14], bem como, sobre a COVID-19[15], como forma de mitigar os riscos à violação de direitos. Essa nova dinâmica possibilitou aos provedores de aplicação remover informações que contrariem essas diretrizes e, em último caso, rescindir o contrato com o usuário por meio da suspensão ou até cancelamento da respectiva conta.
Embora a moderação de conteúdo pelas próprias plataformas possa até parecer uma novidade, fato é que as mídias sociais sempre exigiram de seus respectivos usuários a observância às regras de suas plataformas. Exemplo disso é o Oversight Board (Comitê de Supervisão), criado pelo Facebook (atualmente Meta), para ajudar a empresa a criar e modificar regras sobre o que deve ser permitido e proibido em sua plataforma[16].
Todavia, o alvoroço global em torno das chamadas fake news colocou luz sobre a autorregulação feita pelas próprias plataformas, o que se refletiu em decisões judiciais[17] recentes que, juntamente com a recalcitrância legislativa impondo limitações sobre tal moderação, coloca em dúvida essas ações de autorregulação, questionando se tais medidas se coadunam com o ordenamento jurídico[18].
Observe-se, a título de exemplo, a controvérsia judicial que ganhou notoriedade recentemente, sobre a remoção do canal “Terça Livre” pelo YouTube, de titularidade de Allan dos Santos. Neste caso, o titular do canal questionou a possibilidade de a plataforma remover o canal e aplicar seus próprios termos de uso, por considerar a medida exagerada e abusiva[19]. Outro exemplo é a judicialização do banimento do ex-presidente dos Estados Unidos, Donald Trump, da rede social Twitter, por suposta incitação à violência e à invasão do Congresso americano feita possivelmente através da referida plataforma[20].
Nestas condições, o presente trabalho tem como objetivo responder, através do método dedutivo, se a moderação de conteúdo realizada pelas mídias sociais sobre desinformação é ou não compatível com o ordenamento jurídico, de modo a concluir se a autorregulação nesse aspecto é desejável como uma das medidas para o combate às notícias falsas.
3 LIBERDADE DE EXPRESSÃO, GOVERNANÇA DA INTERNET E RESERVA DE JURISDIÇÃO
É cediço que a evolução dos meios de comunicação provocou significativos impactos na garantia de direitos fundamentais como a liberdade de expressão, especialmente em função da possibilidade de compartilhamento instantâneo de informações, sem respeito às fronteiras geográficas e globais. A garantia à liberdade de expressão encontra raízes na proteção do regime democrático e na valorização da pluralidade na construção das ideias, em face da ameaça da constrição estatal.
O direito fundamental à liberdade de expressão pode ser definido sob duas dimensões, a subjetiva e a objetiva. A dimensão subjetiva deriva de um direito negativo que impede que os indivíduos tenham a sua faculdade de manifestação pelo Estado, caracterizando-se por um “direito de abstenção do Estado de uma conduta que interfira sobre a esfera de liberdade do indivíduo”[21]. Nessa dimensão, o direito à liberdade de expressão encontra seus limites sempre que for utilizado como pretexto para cometer crimes, para incitar a violência ou efetuar a discriminação.
As mudanças nos meios de comunicação responsáveis pela difusão de informação, bem como dos espaços de trocas de ideias ensejam a necessidade de atualização das ferramentas de garantia da liberdade de expressão e acesso à informação. Consolida-se uma esfera pública digitalizada, estruturada a partir de regras de convivência que moldam a participação, a conduta e as expectativas dos usuários, além de desincentivar comportamentos abusivos. Trata-se de um ambiente multipolarizado, em que os fluxos informacionais ocorrem de forma extremamente rápida. Em verdade, tais fluxos são tão intensos que o efeito da manipulação pode ser compreendido como um efeito colateral desse universo, oriundo de agentes maliciosos abusam dessa liberdade, distorcendo fatos e manipulando informações. Não sem razão, esse fenômeno alterou os papéis do governo e dos agentes privados na regulação do mundo digital[22].
O ambiente virtual requer, nesse contexto, regras de governança eficazes contra a utilização abusiva de seus mecanismos. No Brasil, o Marco Civil da Internet regulamentou princípios, garantias, direitos e deveres para o uso da internet. Nesse sentido, o artigo 19 da referida legislação, com o intuito de assegurar a liberdade de expressão e impedir a censura, implementou o princípio da reserva de jurisdição, limitando as hipóteses em que as plataformas podem ser responsabilizadas. Estabeleceu-se, portanto, que o provedor de aplicações de internet somente poderá ser responsabilizado por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para tornar indisponível o conteúdo apontado como infringente.
Justamente por ter implementado o princípio da reserva de jurisdição, há quem entenda que as mídias sociais não podem fazer a moderação de conteúdo e suprimir manifestações lançadas nas plataformas, sob o argumento de que a legislação condicionou a remoção de material cibernético à ordem judicial[23] ou mesmo sustentando que deve prevalecer a liberdade de expressão[24] ou, ainda, que a moderação não se coaduna com o ordenamento jurídico[25].
Em princípio, pode não parecer adequado deixar sob a responsabilidade dos provedores de aplicação a decisão pela remoção de conteúdo de suas plataformas, já que a legislação parte da ideia de que a avaliação judicial dos interesses constitucionalmente em conflito tem como objetivo assegurar a liberdade de expressão e impedir a censura. Todavia, quando realizada para combater a desinformação, a moderação de conteúdo feita pelas mídias sociais deve ser compreendida como um instrumento relevante para a garantia de uma esfera pública saudável, bem como para a proteção dos direitos de todos os participantes destas plataformas. Isso não significa, por outro lado, que a moderação deva ser realizada de forma indiscriminada, tampouco que deva ser feita sem o conhecimento dos usuários. É importante que as regras estejam claras e sigam procedimentos previamente estabelecidos, permitindo o direito de defesa.
Segundo Chiara Spadaccini de Teffé, a Lei nº 12.965/14 não impede que os provedores de aplicação possam determinar requisitos para remoção direta de conteúdo em seus termos e políticas de uso; devem apenas evitar abusos, como bloqueios de conteúdos sem qualquer justificativa ou sem garantia do contraditório e da ampla defesa às partes[26].
Não se pode ignorar, de todo modo, que a questão é polêmica, já que, no Brasil, a Medida Provisória nº 1.068/2021 – que perdeu a validade por ser considerada inconstitucional pelo Senado Federal – impôs uma série de requisitos prévios para que os provedores pudessem fazer a moderação de conteúdo de suas plataformas[27]. Nos Estados Unidos, os Estados do Texas e da Flórida também agiram de modo a restringir a ação das mídias sociais à moderação de conteúdo. A legislação House Bill 20[28] do Estado do Texas proibiu as grandes plataformas de mídia social de remover postagens de usuários com base em “pontos de vista”; já a legislação SB 7072[29] do Estado da Flórida proibiu as mídias sociais de remover perfis de candidatos a cargos políticos ou de empreendimentos jornalísticos de suas plataformas. Essas legislações foram suspensas por ordem judicial e encontram-se sob escrutínio da Justiça norte-americana[30]/[31].
A polêmica, contudo, não parece superar o fato de que a moderação é uma prática legítima, inclusive porque, como plataformas privadas, as mídias sociais têm autonomia para desenhar seu próprio modelo de negócio, conforme prevê o artigo 170 da Constituição Federal, na forma contratual, posto que a liberdade de expressão não pode ser salvo-conduto para prática de desinformação, já que nenhum direito pode ser absoluto[32]. Se a liberdade de expressão não pode viabilizar ideias e discursos que coloquem em risco a sociedade, deve ela compatibilizar-se com outros direitos fundamentais.
Durante o período de pandemia de COVID-19, observou-se intensa disseminação de desinformação sobre a doença, sugerindo-se desde curas milagrosas até mensagens que colocavam em dúvida a existência do vírus. A disseminação de notícias falsas foi considerada o verdadeiro entrave para o enfrentamento eficiente da pandemia[33]. A Organização Mundial de Saúde (OMS) tratou do tema a partir do conceito de “infodemia”[34], destacando os riscos para a saúde da população em razão da circulação de notícias falsas relacionadas à COVID-19.
Notícias fraudulentas colocando em dúvida a higidez do sistema eleitoral brasileiro também trouxeram gravíssimas consequências para a democracia e as instituições. Tamanha a repercussão que alguns extremistas, baseados na convicção de que houve fraude nas eleições presidenciais de 2022, invadiram e destruíram as dependências do Supremo Tribunal Federal, Congresso Nacional e o Palácio do Planalto[35].
Nesse contexto, a moderação de conteúdo feita pelas mídias sociais para o enfrentamento da desinformação caracteriza-se, na verdade, como uma expectativa social à promoção de um ambiente virtual saudável, não um cerceamento à liberdade de expressão.
O artigo 19 do Marco Civil da Internet não proíbe as mídias sociais de remover conteúdo sem ordem judicial. A remoção mediante ordem judicial a que se refere o dispositivo apenas estabelece um marco de responsabilidade ao provedor, delimitando o momento em que ele assume a responsabilidade pelo conteúdo, caso não o remova mesmo diante de uma ordem judicial.
Marcel Leonardi afirma que a existência de ordem judicial serve apenas para avaliar a responsabilização a posteriori da plataforma, não condicionando sua atuação à existência de ordem judicial: “cada provedor continua livre para implementar as políticas que entender pertinentes para remoção voluntária de conteúdo”[36]. No tocante à remoção, o provedor não fica de mãos atadas aguardando a ordem judicial; pode perfeitamente remover o conteúdo de acordo com seus termos de uso e sem ordem judicial[37].
As notícias falsas, além de prejudicarem a qualidade dos debates e a capacidade dos cidadãos de tomarem decisões bem informadas, representam um grave risco à liberdade de expressão e à honra e imagem de diversas pessoas, por trazerem ao público conteúdos falsos como se verdades fossem, minando a confiança nas instituições e nos meios de comunicação, o que compromete o desenvolvimento saudável das democracias[38].
Esses debates evidenciam que o Poder Judiciário vem se tornando um participante ativo na definição sobre a aplicação dos termos de uso pelas plataformas, inclusive, em muitos casos, admitindo que os provedores façam a moderação de conteúdo, anuindo que tal medida se coaduna com o ordenamento jurídico[39].
4 AUTORREGULAÇÃO x LEGALIDADE
A discussão acerca da possibilidade de os provedores de aplicações realizarem moderação de conteúdo parece ser compatível com a tendência atual de modular a responsabilidade de novos intermediários num contexto experimental de maior responsabilidade de seu próprio meio, para além da liberdade de expressão. Vê-se, ainda, uma tendência de fomento à inovação baseada num modelo que extrapola o simples processo político de formação da vontade pública, configurando uma espécie de proceduralização da proteção jurídica na sociedade da plataforma, a qual deve levar em conta a dinâmica das redes de computadores, aparelhos e modelos comerciais atuais. O intuito é, precisamente, equiparar a proteção dos direitos dentro do próprio meio, estabelecendo um dever constante de observação por parte dos tribunais dos Estados e suas agências[40].
Prova da superação da discussão sobre autorregulação é a ideia de “autorregulação regulada”. Nesta, o Poder Público estabelece aos provedores um procedimento transparente, com direito de defesa, no qual podem ser reclamadas e também contestadas a adoção de medidas de controle pelos provedores. A lógica da autorregulação regulada é focar na “cooperação entre o estado regulador e os atores ou setores sociais a serem regulados”[41].
A autorregulação regulada ficou muito conhecida por conta da NetzDG, lei alemã que obriga os provedores de redes sociais atuantes no país a adotar um sistema de gerenciamento de denúncias a respeito de publicações de conteúdo ilícito ou ofensivo[42]. A NetzDG não é imune a críticas, da mesma forma que a moderação de conteúdo feita diretamente pelos provedores. Muitos afirmam que a legislação “privatizou” o controle sobre o fluxo das comunicações, relegando às empresas privadas a tarefa de excluir conteúdos, desobrigando o Poder Judiciário de tal controle[43].
Além disso, existe a preocupação de que a lei quebre a neutralidade do Governo, pois o Ministério da Justiça tem acesso às formas com que as mídias sociais implementam seus mecanismos de exclusão. Vale destacar que a NetzDG inspirou o projeto de Lei nº 2630/2020, também conhecido no como “Lei das Fake News”, atualmente em discussão no Congresso brasileiro[44].
Recentemente, o Parlamento Europeu também aprovou um novo Regulamento de Serviços Digitais (RSD) que substitui a Diretiva 2000/31. Previsto para entrar em vigor a partir de 1º de janeiro de 2024, o novo regramento estabelece obrigações para prestadores de serviços digitais – dentre eles as mídias sociais – que envolvem autorregulação regulada, como forma de combater a propagação de conteúdos ilegais e a desinformação[45].
A regulação de condutas abusivas em um ambiente descentralizado, como é o caso da internet, não é providência das mais simples. A utilização de robôs, a criação de perfis falsos e a rapidez da transmissão de notícias torna o trabalho ainda mais complexo[46]. Pela sua importância, a regulação de condutas abusivas nas plataformas digitais requer um modelo operacional que, ao lado de entes públicos, permita a contribuição de outros atores sociais.
A jurisdição estatal, por si só, não é capaz de proteger as pessoas com a mesma velocidade em que se dá uma conduta danosa, nem mesma medida desta. A perspectiva de que as decisões judiciais são o principal antídoto à desinformação é uma ilusão[47].
A moderação de conteúdo realizada pelas próprias mídias sociais não é incompatível com o ordenamento jurídico; é, sim, um interessante instrumento para combate à desinformação. É evidente que esse modelo não é único, e também não é imune a críticas, a exemplo daqueles que o consideram uma espécie de “vigilância privada” sobre o fluxo das comunicações. Todavia, a moderação realizada pelas plataformas não pode ser descartada como parte das medidas de combate à desinformação; precisa, sim, aprimorada.
Desde que passível de controle judicial, a moderação de conteúdo é um instrumento relevante para a garantia de uma esfera pública saudável e para a proteção dos direitos dos usuários das mídias sociais. É importante, nesse aspecto, que as regras sejam claras, sigam procedimentos previamente estabelecidos, garantindo aos usuários o seu conhecimento e viabilizando o direito de defesa.
A regulação de condutas humanas no âmbito da web deve perpassar e selecionar os recursos do código da rede que permitam a modelação das ações dos indivíduos no ambiente digital, afinal, não existem soluções mirabolantes que resolvam o grave problema relacionado à desinformação. Nesse aspecto, vale lembrar as lições de Lawrence Lessig sobre a regulação de condutas humanas no mundo digital. Para o referido autor, existem duas formas de regular a internet: a primeira, alterar sua arquitetura e o código da rede, já que, modificando-o, reconfigura-se também a “realidade física”, tornando possível o que era impossível; a segunda consiste em aprovar leis que para serem implementadas eficazmente levem em consideração as alterações no código[48].
5 CONSIDERAÇÕES FINAIS
Como evidenciado, a moderação de conteúdo realizada pelas próprias mídias sociais não é assunto novo, mas algumas decisões judiciais e iniciativas legislativas vêm colocando em xeque instrumentos desta natureza. De modo geral, todas as plataformas possuem regras para sua utilização. Para usar uma mídia social, o usuário toma ciência dos termos de uso da aplicação e aceita as regras que regem sua participação naquele ambiente. Esses termos compõem o contrato firmado entre o usuário e a plataforma, regulando o ambiente daquele serviço de acordo com os interesses finalísticos daquela mídia social, de forma a manter o serviço mais atrativo para o maior número possível de pessoas.
Os termos de uso das aplicações, em regra, possibilitam às empresas realizarem a moderação de conteúdo e remover informações que contrariem as diretrizes de suas respectivas ferramentas e, em último caso, rescindir o contrato com o usuário através da suspensão ou até cancelamento da conta.
A democratização da comunicação de massa trazida pela internet trouxe muitos benefícios e o maior privilegiado nesse sentido foi o direito à liberdade de expressão. Ao mesmo tempo em que as mídias sociais se destacaram como palco para o exercício da liberdade, também foram e são utilizadas para propagação de desinformação organizada.
Infelizmente, a propagação de notícias falsas pela internet maximiza os efeitos da desinformação, ampliando o alcance de ideias extremistas, o que alimenta tensões políticas e sociais. Foram visíveis os efeitos nefastos da desinformação durante a pandemia de COVID-19, já que as notícias falsas prejudicaram o combate ao Coronavírus e, em momento posterior, fomentaram a invasão e depredação do Supremo Tribunal Federal, Congresso Nacional e Palácio do Planalto, no 8 de janeiro de 2023, em razão da falsa percepção de grande parte dos extremistas de que o processo eleitoral brasileiro foi objeto de fraude.
Como forma de combater a desinformação, muitas mídias sociais modificaram e recrudesceram as regras de utilização de suas plataformas, com o objetivo de impedir que suas ferramentas sejam utilizadas como plataforma de divulgação de desinformação. Todavia, esse movimento foi acompanhado de decisões judiciais e iniciativas legislativas que colocaram em xeque a moderação de conteúdo levado a efeito pelas plataformas.
Embora, à primeira vista, não pareça adequado deixar sob a responsabilidade dos provedores de aplicação a decisão pela remoção de conteúdo de suas plataformas, é de se reconhecer que a busca por alternativas regulatórias às mídias sociais – tal como a autorregulação – são formas de restringir a propagação de desinformação. Para além de evitar a hiper judicialização, essa atuação das plataformas permite fortalecer a democracia e manter uma esfera pública saudável, aberta e plural, que privilegie o exercício da cidadania.
Isso não significa, obviamente, que a moderação deva ser realizada de forma indiscriminada, tampouco que deva ser feita sem o conhecimento dos usuários. É importante que as regras sejam claras e sigam procedimentos previamente estabelecidos, permitindo o direito de defesa.
Não se ignoram as críticas no sentido de que a autorregulação pode configurar uma espécie de “privatização” sobre o fluxo das comunicações. Entretanto, a moderação não pode ser descartada como parte dos instrumentos sociais de combate à desinformação, desde que essa atividade seja passível de controle jurisdicional. A moderação de conteúdo é um instrumento relevante para a garantia de uma esfera pública sadia, devendo ser aprimorada.
Portanto, a moderação de conteúdo realizada pelas próprias mídias sociais não é incompatível com o ordenamento jurídico. Pelo contrário, o artigo 19 do Marco Civil da Internet não veda as mídias sociais de remover conteúdo sem ordem judicial, apenas estabelece um marco de responsabilidade ao provedor, delimitando o momento em que ele assume a responsabilidade pelo conteúdo, caso não o remova mesmo diante de uma ordem judicial.
A discussão acerca da possibilidade de os provedores de aplicações realizarem moderação de conteúdo parece, em verdade, há muito superada, porém, a relevância desta pesquisa reside justamente na revisão desta possibilidade diante do fenômeno da desinformação online e, acredita-se que os novos desafios atraem o debate sobre “autorregulação regulada” – forma de autorregulação que o Poder Público estabelece aos provedores um procedimento transparente, com direito de defesa, no qual podem ser reclamadas e também contestadas a adoção de medidas de controle pelos provedores. Ou seja, o debate, hoje, não consiste em saber se a autorregulação é juridicamente admitida, mas sim quais os procedimentos a ela vinculados.
Nesse contexto, nem a lei, nem a Constituição Federal parecem tolher a liberdade do provedor de remover material que viole as diretrizes de uso de sua plataforma, em especial quando se trata de desinformação.
O combate à desinformação perpassa várias medidas e a moderação é apenas uma delas. Os usuários da internet e das mídias sociais precisam diferenciar conteúdos enganosos de fatos e opiniões. Nesse sentido, a educação midiática e o investimento em educação são imprescindíveis. O usuário deve desconfiar das notícias veiculadas por fontes sem autoria conhecida e com estrutura geralmente alarmista. Na dúvida, é importante verificar se o material foi ou não divulgado por outras fontes confiáveis de informação, observando, também, se já foi analisado por veículos oficiais como sendo falso. Por outro lado, os esforços de repressão à desinformação devem se concentrar, principalmente, em identificar e punir os financiadores destas ações desinformacionais organizadas, ou seja, em ações repressivas que, em conjunto com outras medidas, contenha e previna os efeitos nefastos que as notícias falsas têm sobre toda sociedade.
6 REFERÊNCIAS
Alemanha, Ntezwerkdurchsetzungsgesetz – NetzDG, Disponível em: <https://www.gesetze-im-internet.de/netzdg/BJNR335210017.html>. Acesso em 08/05/2022.
Balkin, Jack M, Old-school/new-school speech regulation, Harvard Law Review, v. 127, n. 2296, 2014, p. 11, Disponível em: <https://digitalcommons.law.yale.edu/cgi/viewcontent.cgi?article=5886&context=fss_papers>. Acesso em 09/05/2022.
Brasil (Distrito Federal). Tribunal Superior Eleitoral. Portaria nº 510, de 04 de agosto de 2021 [Institui o Programa Permanente de Enfrentamento à Desinformação no âmbito da Justiça Eleitoral e disciplina a sua execução]. Diário da Justiça Eletrônico do Tribunal Superior Eleitoral. Atos da Presidência, Brasília, ano 2021, n. 145, p. 466-467, 06/08/2018, Disponível em: <https://sintse.tse.jus.br/documentos/2021/Ago/6/diario-da-justica-eletronico-tse/portaria-no-510-de-4-de-agosto-de-2021-institui-o-programa-permanente-de-enfrentamento-a-desinformac>. Acesso em 18/08/2022.
Brasil, Câmara dos Deputados, Projeto de Lei nº 2630/2020, Disponível em: <https://www.camara.leg.br/propostas-legislativas/2256735>. Acesso em 06/01/2023.
Brasil, Supremo Tribunal Federal, Arguição de Descumprimento de Preceito Fundamental nº 572, Tribunal Pleno, Brasília, DF, 18/062020, p. 351, Disponível em: <https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=TP&docID=754371407>. Acesso em 05/05/2022.
Brasil, Congresso Nacional, Medida Provisória nº 1068/2021 [altera critérios de uso de redes sociais], Disponível em: <https://www.congressonacional.leg.br/materias/medidas-provisorias/-/mpv/149726>. Acesso em 08/05/2022.
Brasil, Supremo Tribunal Federal, Inquérito 4.789-DF, Relator Alexandre de Moraes, Brasília, DF, decisão monocrática, 08/01/2023, p. 5, Disponível em: <https://www.stf.jus.br/arquivo/cms/noticiaNoticiaStf/anexo/DECISA771OAfastagovernadoreoutrasmedidas2.pdf.>. Acesso em 09/01/2023.
Brasil, Supremo Tribunal Federal, Habeas Corpus nº 82424-RS, Relator: Moreira Alves, Data de Julgamento: 17/09/2003, Tribunal Pleno, Data de Publicação: 19-03-2004, Disponível em: <https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=79052>. Acesso em 28/06/2023.
Campos, Ricardo, Metamorfose do Direito Global, São Paulo, Contra Corrente, 2022.
Cappi, Juliano, Internet. Big Data e discurso de ódio: reflexões sobre as dinâmicas de interação no Twitter e os novos ambientes de debate político. 62 f. Tese (Doutorado em Comunicação e Semiótica) – Pontifícia Universidade Católica de São Paulo, São Paulo, 2017, Disponível em: <https://tede2.pucsp.br/bitstream/handle/20644/2/Juliano%20Cappi.pdf.>. Acesso em 21/10/2022.
Comissão Européia, Combater a desinformação em linha: Grupo de Peritos defende uma maior transparência entre as plataformas em linha, Comunicado de imprensa, Estrasburgo, 12/08/2018, Disponível em: < https://ec.europa.eu/commission/presscorner/detail/pt/IP_18_1746>. Acesso em 22/12/2022.
Digital 2022 October Global Statshot Report. Disponível em: <https://www.slideshare.net/DataReportal/digital-2022-october-global-statshot-report-oct-2022-v02>. Acesso em 19/11/2022.
Estados Unidos Da América. A lei estadual SB 7072 do Estado da Flórida foi suspensa por decisão liminar da Corte do Distrito Norte da Flórida, Supreme Court, Disponível em: <https://storage.courtlistener.com/recap/gov.uscourts.flnd.371253/gov.uscourts.flnd.371253.113.0_1.pdf>. Acesso em 05/01/2023.
Estados Unidos Da América. A lei estadual House Bill 20 do Estado do Texas foi suspensa por decisão liminar da Suprema Corte dos Estados Unidos, Supreme Cort, Disponível em: <https://www.supremecourt.gov/DocketPDF/21/21A720/225388/20220513192559757_Supreme%20Court%20Vacatur%20Application.pdf>. Acesso em 05/01/2023.
Flórida (EUA), SB 7072, The Florida Senate. Disponível em: <https://www.flsenate.gov/Session/Bill/2021/7072/BillText/er/PDF>. Acesso em 05/01/2023.
Laux, Francisco de Mesquita, Redes sociais e limites da jurisdição, São Paulo: RT, 2021.
Lawrence, Lessig, The Law of the Horse: What Cyber Law Might Teach, Harvard Law Review, n. 113, rev. 501, p. 17, 1999. Disponível em: <https://cyber.harvard.edu/works/lessig/LNC_Q_D2.PDF>. Acesso em 28/06/2023.
Leonardi, Marcel, Direito @ Internet, In: Adamek, Marcelo Vieira (coords.), Internet e Regulamentação: o bom exemplo do Marco Civil da Internet, São Paulo, Revista do Advogado da AASP, n. 115, 2012, p. 109.
Leonardi, Marcel, Fundamentos de Direito Digital, São Paulo, Revista dos Tribunais, 2019.
Câmara dos Deputados, Líderes condenam vandalismo contra Congresso, STF e Planalto exigem punição dos responsáveis, Câmara dos Deputados, Disponível em <https://www.camara.leg.br/noticias/933228-lideres-condenam-vandalismo-contra-congresso-stf-e-planalto-e-exigem-punicao-dos-responsaveis>. Acesso em 09/01/2023.
Maranhão, Juliano, Campos, Ricardo, Fake News e autorregulamentação regulada das redes sociais no Brasil: fundamentos constitucionais, In: Abboud, Georges, Nery Jr, Nelson, Campos, Ricardo (Orgs.), Fake News e Regulação, 2ª ed. São Paulo, Revista dos Tribunais, 2020, p. 321-344.
Meta, Combatendo a desinformação para proteger a eleição no Brasil, 23/10/2018, Disponível em: <https://about.fb.com/br/news/2018/10/combatendo-a-desinformacao-para-proteger-a-eleicao-no-brasil/>. Acesso em 9/01/2023.
Nery, Carmen, Britto, Vinícius, Internet já é acessível em 90,0% dos domicílios do país em 2021, Agência IBGE de Notícias, Disponível em: <https://agenciadenoticias.ibge.gov.br/agencia-noticias/2012-agencia-de-noticias/noticias/34954-internet-ja-e-acessivel-em-90-0-dos-domicilios-do-pais-em-2021>. Acesso em 19/12/2022.
Organização Pan-Americana Da Saúde, Entenda a infodemia e a desinformação na luta a COVID-19: kit de ferramentas de transformação digital, c2019, Disponível em: <https://iris.paho.org/bitstream/handle/10665.2/52054/Factsheet-Infodemic_por.pdf?sequence=16>. Acesso em 19/10/2022.
Oversight Board, Garantir o respeito à liberdade de expressão por meio do julgamento independente, Disponível em: <https://www.oversightboard.com/>. Acesso em: 01/08/2022.
Rais, Diogo, Falcão, Daniel, Giacchetta, André Zonaro, Direito Eleitoral Digital. São Paulo, RT, 2022.
Rais, Diogo, Sales, Stela Rocha, Fake News, Deepfakes e Eleições In: Fake News a conexão entre a desinformação e o direito, São Paulo, RT, 2020, p. 25-52.
São Paulo, Tribunal de Justiça do Distrito Federal, Agravo de Instrumento n.º 0724120-65.2021.8.07.0000, 1ª Turma Cível, Relator Teófilo Caetano, data do julgamento 16/11/2021, Disponível em: <https://pje2i-consultapublica.tjdft.jus.br/consultapublica/ConsultaPublica/DetalheProcessoConsultaPublica/documentoSemLoginHTML.seam?ca=0daae9c38b30efc418529bc6182f4bafc00b21ec5837f943593cb5d01cac5cc57910b1bb885420f9ff690da6af3707c0e85c121b43ce8639&idProcessoDoc=30546422>. Acesso em 28/06/2023).
São Paulo, Tribunal de Justiça de São Paulo, Apelação Cível n.º 1044476-68.2021.8.26.0100, 17ª Câmara de Direito Privado, Relator Irineu Fava, 04/05/2022, Disponível em: <https://esaj.tjsp.jus.br/cjsg/getArquivo.do?conversationId=&cdAcordao=15663688&cdForo=0&uuidCaptcha=sajcaptcha_a2b9b72524814cd78462774bfb7a018e&g-recaptcha-response=03AL8dmw-0bSM0r8ZEn5YGKWdBak11Y09x7MmQqqEPRco52iNuME3LTskMUnSCrMnDDLaV_m5To9wrUqaZTO1iPlDkrju7iKokgsE4iipdbVJ0QZ_1I6t6PDIZT4sUmGAqeLsqtGq7BaONtPsKl6MemU5C3CrhGzDnGzPrdBWhAjTFNxKQVjBLuiz6WlE4vpLDMc_vdj6RlknStNA0huIhY3GgCKLBKHmhgBydVv9P16iMs6JXuPKGP_y3VVmw10wKn-JOtnjq9OkMrPNkjIrgnBz_IvKm7V3do0Hb7nWb7ng3EzMDHwYC1kI7A3mjHXSHfJkbuprwsKh5ZUZYWYa_Kp7TWpd7-8Twm7ipnQRHsg-yc34LRRxJ_5qdwR5HVSR_yksxlNyp5y74gyXB3byZE7t3n3DYv24j7_t7Kv5Ln2ILwcQDZ98STCoAo6N2tEs4V3smsDZckAuTzmvj-YJaRFYBVA9REhWf4Cp1UJ4GOL6ILL1g2nA9q4lVaPMsn0MWsAMSh_SjjtlV0Sw5nRQwS2-_xtvAvlAt1ur6gr7OGC8jHYjJCQWv0dg>. Acesso em 28/06/2023.
São Paulo, Tribunal de Justiça de São Paulo, Agravo de Instrumento n.º 2156064-72.2021.8.26.0000, 17ª Câmara de Direito Privado, Relator Irineu Fava, data do julgamento 18/08/2021, Disponível em: <https://esaj.tjsp.jus.br/cjsg/getArquivo.do?cdAcordao=15073722&cdForo=0>. Acesso em 28/06/2023.
São Paulo, Tribunal de Justiça de São Paulo, Apelação Cível n.º 1022578-62.2022.8.26.0100, 36ª Câmara de Direito Privado Relator Milton Carvalho, data do julgamento. 05/10/2022, Disponível em: <https://esaj.tjsp.jus.br/cjsg/getArquivo.do?cdAcordao=15867917&cdForo=0>. Acesso em 28/06/2023.
São Paulo, Tribunal de Justiça de São Paulo, Apelação Cível n.º 1087666-81.2021.8.26.0100, 32ª Câmara de Direito Privado, Relator Ruy Coppola, data do julgamento 21/07/2022, Disponível em: <https://esaj.tjsp.jus.br/cjsg/getArquivo.do?cdAcordao=15867917&cdForo=0>. Acesso em 28/06/2023.
São Paulo, Tribunal de Justiça de São Paulo, Processo digital n.º 1010969-19.2021.8.26.0100, 8ª Vara Cível, Juíza de Direito Ana Carolina Munhoz de Almeida, data do julgamento 15/07/2021, Disponível em: <https://esaj.tjsp.jus.br/pastadigital/abrirDocumentoEdt.do?instanciaProcesso=pg&nuProcesso=1010969-19.2021.8.26.0100&cdProcesso=2S001DAAH0000&cdProcessoMaster=2S001DAAH0000&cdForo=100&baseIndice=INDDS&nmAlias=PG5JM&tpOrigem=2&flOrigem=P&cdServico=190101&acessibilidade=false&ticket=gSTH28D9DeFo1%2FYyX7SGLJ6etG9PG6sC2ddHA0uWssANrSXJvpk16dTa3WS64xI3tsn%2FP8iKFgZS5MFH3iE74GeajKUpAor3L0cCehwjB2Hxj0vkLM5%2Fiwsr94sTKGet4HqdsJFbvF6c%2Fz840IKN1e2mpLXNRq85KXUmsaUMkcxC6zCIZBDRnR7B4yTISqAlmB%2B8yHprZ0PFyHyT1rONEuESMeMmcWIvvPqY9F8NOv4CAEkVcfFsiL2%2BDuAVmRk1jbKe8zdlq7jLyNrqKfsLq4GbLT3rlaqc8lNa5WhMy1JBvACmYkAQTuOjekbslOithU582D9Vr0oWlN9e5Vuc9DKJ16yi3LCE7OrZhvmqFdieXcBeUUU9R9kO7WS1vwIfiitBb6XPkTWkV8FMME8kL%2FyMr3abxiKX4e1zjv%2FXpM4v7bGkvsq%2BWTwVN1BS9l250LZmQpsl57llZDjTKObDyg%3D%3D>. Acesso em 28/06/2023.
Sarmento, Daniel. Art. 5º, IV. In: Canotilho, J. J. Gomes, Mendes, G. Ferreira, Sarlet, Ingo Wolfgang, Streck, Lenio Luiz (Orgs.), Comentários à Constituição do Brasil, 2ª ed., São Paulo, Saraiva/Almedina, 2018.
Souza, Carlos Affonso, Teffé, Chiara Spadaccini, Fake News e eleições: Identificando e combatendo a desordem informacional, In: Aboud, Georges, Nery, Jr., Nelson, Campos, Ricardo (orgs.), Fake News e Regulação, 2ª ed., São Paulo, Revista dos Tribunais, 2020, p. 282.
Teffé, Chiara Spadaccini de, Marco Civil da Internet: considerações sobre a proteção da liberdade de expressão, neutralidade da rede e privacidade, In: Becker, Daniel, Ferrari, Isabela, Regulação 4.0, São Paulo, Revista dos Tribunais, 2020, p. 143-144.
Texas (EUA), House Bill nº 20, Texas Legislature Online, Disponível em: <https://capitol.texas.gov/tlodocs/872/billtext/html/HB00020F.HTM>. Acesso em 05/01/2023.
Trump v. Twitter, Inc, Tribunal Distrital da Califórnia, caso n. 21-cv-08378-JD, 06/05/2022, Disponível em: <https://www.courtlistener.com/docket/60682486/165/trump-v-twitter-inc/>. Acesso em 18/10/2022.
União Europeia. Proposta de regulamento do parlamento europeu e do conselho relativo a um mercado único de serviços digitais (Regulamento Serviços Digitais) e que altera a Diretiva 2000/31/CE. Bruxelas, 15/12/2020. EUR-Lex. Disponível em: <https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX:52020PC0825>. Acesso em 19/10/2022.
World Health Organization, Infodemic, c2023, Disponível em: <https://www.who.int/health-topics/infodemic#tab=tab_1>. Acesso em 05/05/2022.
Youtube, Políticas contra desinformação em eleições, Disponível em <https://support.google.com/youtube/answer/10835034?hl=pt-BR>. Acesso em 09/01/2023.
[1] Advogado, doutorando em Direito pela Universidade Presbiteriana Mackenzie, São Paulo, SP, Brasil, CEP 01302-907; Mestre em Direito; Pós-graduado em Direito Civil e Processo Civil pela Escola Paulista de Direito; Atualmente sócio da área de projetos especiais no escritório Lee, Brock & Camargo Advogados, e-mail: caiomtenorio@hotmail.com. https://orcid.org/0000-0002-8404-7695
[2] Advogado, Doutor (2015) e Mestre (2011) em Direito Constitucional pela PUC-SP com bolsa pesquisa pelo projeto do Conselho Nacional de Justiça (CNJ Acadêmico). Professor de Direito Eleitoral, Inovação e Direito Digital da graduação e do Programa de Pós-Graduação da Universidade Presbiteriana Mackenzie (UPM), São Paulo, SP, Brasil, CEP 01302-907, e-mail: diogoraisrm@gmail.com. https://orcid.org/0000-0002-3956-4714
[3] Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
§ 1º A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, que permita a localização inequívoca do material.
§ 2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos depende de previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5º da Constituição Federal.
§ 3º As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais.
§ 4º O juiz, inclusive no procedimento previsto no § 3º, poderá antecipar, total ou parcialmente, os efeitos da tutela pretendida no pedido inicial, existindo prova inequívoca do fato e considerado o interesse da coletividade na disponibilização do conteúdo na internet, desde que presentes os requisitos de verossimilhança da alegação do autor e de fundado receio de dano irreparável ou de difícil reparação.
[4] Campos, Ricardo, Metamorfose do Direito Global, São Paulo, Contra Corrente, 2022, p. 259.
[5] Nery, Carmen, Britto, Vinícius, Internet já é acessível em 90,0% dos domicílios do país em 2021, Agência IBGE de Notícias, Disponível em: <https://agenciadenoticias.ibge.gov.br/agencia-noticias/2012-agencia-de-noticias/noticias/34954-internet-ja-e-acessivel-em-90-0-dos-domicilios-do-pais-em-2021>. Acesso em 19/12/2022.
[6] Rais, Diogo, Falcão, Daniel, Giacchetta, André Zonaro, Direito Eleitoral Digital. São Paulo, RT, 2022, p. 17.
[7] DIGITAL 2022 October Global Statshot Report, 2022, Disponível em: <https://www.slideshare.n et/DataReportal/digital-2022-october-global-statshot-report-oct-2022-v02>. Acesso em 19/12/2022.
[8] Comissão Europeia , Combater a desinformação em linha: Grupo de Peritos defende uma maior transparência entre as plataformas em linha, Comunicado de imprensa, Estrasburgo, 12/03/2018, Disponível em: < https://ec.europa.eu/commission/presscorner/detail/pt/IP_18_1746>. Acesso em 22/12/2022.
[9] Brasil (Distrito Federal). Tribunal Superior Eleitoral. Portaria nº 510, de 04 de agosto de 2021 [Institui o Programa Permanente de Enfrentamento à Desinformação no âmbito da Justiça Eleitoral e disciplina a sua execução]. Diário da Justiça Eletrônico do Tribunal Superior Eleitoral. Atos da Presidência, Brasília, ano 2021, n. 145, p. 466-467, 06/08/2018, Disponível em: <https://sintse.tse.jus.br/documentos/2021/Ago/6/diario-da-justica-eletronico-tse/portaria-no-510-de-4-de-agosto-de-2021-institui-o-programa-permanente-de-enfrentamento-a-desinformac>. Acesso em 18/08/2022.
[10] Nas palavras do Ministro Dias Toffoli: “(...) O objetivo dessas campanhas de desinformação é a criação do caos, com a agitação contínua da opinião pública, o estímulo à divisão e ao conflito institucional e social. (...)”. (Trecho do voto do Ministro Dias Toffoli, vide: BRASIL, Supremo Tribunal Federal, Arguição de Descumprimento de Preceito Fundamental nº 572, Tribunal Pleno, Brasília, DF, 18/062020, p. 351, Disponível em: <https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=TP&d ocID=754371407>. Acesso em 05/05/2022.).
[11] Rais, Diogo, Sales, Stela Rocha, Fake News, Deepfakes e Eleições, In: Fake News a conexão entre a desinformação e o direito. São Paulo, RT, 2020, p. 27.
[12] Líderes condenam vandalismo contra Congresso, STF e Planalto exigem punição dos responsáveis, Câmara dos Deputados, Disponível em <https://www.camara.leg.br/noticias/933228-lideres-condenam-vandalismo-contra-congresso-stf-e-planalto-e-exigem-punicao-dos-responsaveis>. Acesso em 09/01/2023.
[13] Maranhão, Juliano, Campos, Ricardo, Fake News e autorregulamentação regulada das redes sociais no Brasil: fundamentos constitucionais, In: Abboud, Georges, Nery Jr, Nelson, Campos, Ricardo (Orgs.), Fake News e Regulação, 2ª ed. São Paulo, Revista dos Tribunais, 2020, p. 323.
[14] Vide exemplos de conteúdos proibidos pelas redes sociais Facebook (Meta) e YouTube sobre desinformação em eleições, como forma de combater a desinformação sobre supostas fraudes do processo eleitoral: META, Combatendo a desinformação para proteger a eleição no Brasil, 23/10/2018, Disponível em: <https://about.fb.com/br/news/2018/10/combatendo-a-desinformacao-para-proteger-a-eleicao-no-brasil/>. Acesso em 9/01/2023; e Youtube, Políticas contra desinformação em eleições, Disponível em < https://support.google.com/youtube/answer/10835034?hl=pt-BR>. Acesso em 09/01/2023.
[15] Vide exemplos de conteúdos proibidos pelas redes sociais Instagram e YouTube sobre a COVID-19, como forma de combater a desinformação acerca da doença: GOOGLE, Política de informações médicas incorretas relacionadas à COVID-19, Disponível em: <https://help.instagram.com/697825587576762> e <https://support.google.com/youtube/answer/9891785?hl=pt-BR>. Acesso em 06/01/2023.
[16] Oversight Board, Garantir o respeito à liberdade de expressão por meio do julgamento independente, Disponível em: <https://www.oversightboard.com/>. Acesso em: 01/08/2022.
[17] Exemplificando: “APELAÇÃO Ação de Obrigação de Fazer – Pretensão ao restabelecimento de vídeos veiculados em canal dos autores e excluídos da plataforma Youtube, bem como à retirada de todas as punições impostas, além de veiculação de vídeo de retratação Exclusão após alegada violação aos termos de serviço e às diretrizes da comunidade do Youtube – Sentença de procedência – Relação contratual – Conduta do réu que afronta as garantias fundamentais previstas no art. 5º, incisos IV e IX da Constituição Federal – Impossibilidade do requerido de exercer qualquer forma de controle prévio a respeito dos conteúdos veiculados nos canais integrantes da plataforma que administra Marco Civil da Internet calcado no espírito liberal da Carta Magna Respeito à liberdade de expressão e pensamento, garantias fundamentais de um Estado Democrático de Direito – Confirmada a determinação de restabelecimento dos vídeos ao canal bem como de retirada de todas as punições impostas – Dever de publicação de texto na página inicial do Youtube Brasil em retratação – Deliberação necessária à efetiva reparação da censura praticada Razoabilidade e proporção respeitadas – Sentença mantida Recurso desprovido.” (SÃO PAULO, Tribunal de Justiça de São Paulo, Apelação Cível n.º 1044476-68.2021.8.26.0100, 17ª Câmara de Direito Privado, Relator Irineu Fava, 04/05/2022. Disponível em: <https://esaj.tjsp.jus.br/cjsg/getArquivo.do?conversationId=&cdAcordao=15663688&cdForo=0&uuidCaptcha=sajcaptcha_a2b9b72524814cd78462774bfb7a018e&g-recaptcha-response=03AL8dmw-0bSM0r8ZEn5YGKWdBak11Y09x7MmQqqEPRco52iNuME3LTskMUnSCrMnDDLaV_m5To9wrUqaZTO1iPlDkrju7iKokgsE4iipdbVJ0QZ_1I6t6PDIZT4sUmGAqeLsqtGq7BaONtPsKl6MemU5C3CrhGzDnGzPrdBWhAjTFNxKQVjBLuiz6WlE4vpLDMc_vdj6RlknStNA0huIhY3GgCKLBKHmhgBydVv9P16iMs6JXuPKGP_y3VVmw10wKn-JOtnjq9OkMrPNkjIrgnBz_IvKm7V3do0Hb7nWb7ng3EzMDHwYC1kI7A3mjHXSHfJkbuprwsKh5ZUZYWYa_Kp7TWpd7-8Twm7ipnQRHsg-yc34LRRxJ_5qdwR5HVSR_yksxlNyp5y74gyXB3byZE7t3n3DYv24j7_t7Kv5Ln2ILwcQDZ98STCoAo6N2tEs4V3smsDZckAuTzmvj-YJaRFYBVA9REhWf4Cp1UJ4GOL6ILL1g2nA9q4lVaPMsn0MWsAMSh_SjjtlV0Sw5nRQwS2-_xtvAvlAt1ur6gr7OGC8jHYjJCQWv0dg>. Acesso em 28/06/2023).
[18] A Medida Provisória nº 1.068/2021, por exemplo, impôs diversos requisitos prévios à remoção de contas e conteúdo nas redes sociais. Todavia, referida medida perdeu sua validade após ter sido devolvida pelo Senado Federal por ser considerada inconstitucional. (Pacheco devolve MP que dificultava retirada de conteúdo da Internet, Agência Senado, 14/09/2021, Disponível em: <https://www12.senado.leg.br/noticias/materias/2021/09/14/pacheco-devolve-mp-que-dificultava-retirada-de-conteudo-da-internet>. Acesso em 08/05/2022).
[19] SÃO PAULO, Tribunal de Justiça de São Paulo, Processo digital n.º 1010969-19.2021.8.26.0100, 8ª Vara Cível, Juíza de Direito Ana Carolina Munhoz de Almeida, data do julgamento 15/07/2021, Disponível em: <https://esaj.tjsp.jus.br/pastadigital/abrirDocumentoEdt.do?instanciaProcesso=pg&nuProcesso=1010969-19.2021.8.26.0100&cdProcesso=2S001DAAH0000&cdProcessoMaster=2S001DAAH0000&cdForo=100&baseIndice=INDDS&nmAlias=PG5JM&tpOrigem=2&flOrigem=P&cdServico=190101&acessibilidade=false&ticket=gSTH28D9DeFo1%2FYyX7SGLJ6etG9PG6sC2ddHA0uWssANrSXJvpk16dTa3WS64xI3tsn%2FP8iKFgZS5MFH3iE74GeajKUpAor3L0cCehwjB2Hxj0vkLM5%2Fiwsr94sTKGet4HqdsJFbvF6c%2Fz840IKN1e2mpLXNRq85KXUmsaUMkcxC6zCIZBDRnR7B4yTISqAlmB%2B8yHprZ0PFyHyT1rONEuESMeMmcWIvvPqY9F8NOv4CAEkVcfFsiL2%2BDuAVmRk1jbKe8zdlq7jLyNrqKfsLq4GbLT3rlaqc8lNa5WhMy1JBvACmYkAQTuOjekbslOithU582D9Vr0oWlN9e5Vuc9DKJ16yi3LCE7OrZhvmqFdieXcBeUUU9R9kO7WS1vwIfiitBb6XPkTWkV8FMME8kL%2FyMr3abxiKX4e1zjv%2FXpM4v7bGkvsq%2BWTwVN1BS9l250LZmQpsl57llZDjTKObDyg%3D%3D>. Acesso em 28/06/2023).
[20] Trump v. Twitter, Inc, Tribunal Distrital da Califórnia, caso n. 21-cv-08378-JD, 06/05/2022, Disponível em: <https://www.courtlistener.com/docket/60682486/165/trump-v-twitter-inc/>. Acesso em 18/10/2022.
[21] Sarmento, Daniel. Art. 5º, IV. In: Canotilho, J. J. Gomes, Mendes, G. Ferreira, Sarlet, Ingo Wolfgang, Streck, Lenio Luiz (Orgs.), Comentários à Constituição do Brasil, 2ª ed., São Paulo, Saraiva/Almedina, 2018, p. 265.
[22] Balkin, Jack M, Old-school/new-school speech regulation. Harvard Law Review, v. 127, n. 2296, 2014, p. Nº 11. Disponível em: <https://digitalcommons.law.yale.edu/cgi/viewcontent.cgi?article=5886&context=fss_papers>. Acesso em 09/05/2022.
[23] “Constitucional, Civil e Processual Civil. Agravo de instrumento. Ação cominatória. Tutela provisória. Natureza cautelar. Plataforma digital Youtube. Suspensão de canal de titularidade da demandante. Entidade religiosa. Conteúdo veiculado. Louvores. Alegação de violação a direitos autorais. Denúncia formulada por terceiro. Rede mundial de computadores. Conteúdo veiculado. Presunção de legitimidade (lei no 12.965/14, arts. 20 e 21). Censura. Adstrição às hipóteses legalmente pontuadas. Liberdade de expressão. Direitos e garantias individuais. Verossimilhança da denúncia. Contraditório. Asseguração. Necessidade. Tutela provisória. Concessão. Cumprimento. Diligências envidadas pelo demandado. Perda superveniente do interesse de agir. Inexistência. Agravo parcialmente provido.”. (SÃO PAULO, Tribunal de Justiça do Distrito Federal, Agravo de Instrumento n.º 0724120-65.2021.8.07.0000, 1ª Turma Cível, Relator Teófilo Caetano, data do julgamento 16/11/2021, Disponível em: <https://pje2i-consultapublica.tjdft.jus.br/consultapublica/ConsultaPublica/DetalheProcessoConsultaPublica/documentoSemLoginHTML.seam?ca=0daae9c38b30efc418529bc6182f4bafc00b21ec5837f943593cb5d01cac5cc57910b1bb885420f9ff690da6af3707c0e85c121b43ce8639&idProcessoDoc=30546422>. Acesso em 28/06/2023).
[24] “Apelação Cível. Ação cominatória de obrigação de fazer com pedido de tutela de urgência. Responsabilidade civil. Sentença de Procedência. Inconformismo. Não acolhimento. Suspensão indevida de canal no Youtube, de propriedade do Autor, Médico. Vídeos alusivos à Covid-19 que foram pela plataforma YouTube removidos e devem ser reinseridos, sob pena de violação ao direito à livre circulação de notícias e opiniões. Ausência, ainda, de certezas quanto à enfermidade. Debate que deve ser livre, o que, inclusive, pode contribuir com a descoberta de melhores métodos de enfrentamento do mal. Plataforma que, ademais, não é rigorosa na aferição da qualidade dos conteúdos veiculados. Sem fundamento a censura feita pela Empresa Ré, pelo que, além dos vídeos serem restabelecidos ao canal do Autor, todas as punições atribuídas ao Autor devem ser retiradas. Decisão bem fundamentada. Ratificação, nos termos do artigo 252, do Regimento Interno. Sentença mantida. RECURSO NÃO PROVIDO, majorando-se a verba honorária devida pela Empresa Ré a 15% (quinze por cento), em favor da Banca que patrocinou os interesses do Autor.” (SÃO PAULO, Tribunal de Justiça de São Paulo, Apelação Cível n.º 1068006-04.2021.8.26.0100, 14ª Câmara de Direito Privado, Relator Penna Machado, data do julgamento 22/11/2021, Disponível em: <https://esaj.tjsp.jus.br/cjsg/getArquivo.do?cdAcordao=15206162&cdForo=0>. Acesso em 28/06/2023).
[25] “Agravos De Instrumento – Decisões que determinaram a reinserção de vídeos produzidos pelo canal “Momento Conservador” na plataforma Youtube, que é administrado pela agravante – Medida que afronta as garantias fundamentais previstas no art. 5o, IV e IX, da Constituição Federal – Impossibilidade da agravante exercer qualquer forma de controle prévio a respeito dos conteúdos veiculados nos canais integrantes da plataforma que administra – Inexistência de limites objetivos à liberdade de pensamento assegurada na Constituição – Decisões corretas que merecem ser mantidas diante das garantias constitucionais mencionadas – Decisões confirmadas – Recursos desprovidos.” (SÃO PAULO, Tribunal de Justiça de São Paulo, Agravo de Instrumento n.º 2156064-72.2021.8.26.0000, 17ª Câmara de Direito Privado, Relator Irineu Fava, data do julgamento 18/08/2021. Disponível em: <https://esaj.tjsp.jus.br/cjsg/getArquivo.do?cdAcordao=15073722&cdForo=0>. Acesso em 28/06/2023).
[26] Teffé, Chiara Spadaccini de, Marco Civil da Internet: considerações sobre a proteção da liberdade de expressão, neutralidade da rede e privacidade, In: BECKER, Daniel, FERRARI, Isabela, Regulação 4.0, São Paulo, Revista dos Tribunais, 2020, p. 143-144.
[27] A Medida Provisória nº 1.068/2021, contudo, perdeu sua validade após ter sido devolvida pelo Senado Federal por ser considerada inconstitucional (BRASIL, Congresso Nacional, Medida Provisória nº 1068/2021 [altera critérios de uso de redes sociais], Disponível em: <https://www.congressonacional.leg.br/materias/medidas-provisorias/-/mpv/149726>. Acesso em 08/05/2022).
[28] Texas (EUA), House Bill nº 20, Texas Legislature Online, Disponível em: <https://capitol.texas.gov/tlodocs/872/billtext/html/HB00020F.HTM>. Acesso em 05/01/2023.
[29] Flórida (EUA), SB 7072, The Florida Senate. Disponível em: <https://www.flsenate.gov/Session/Bill/2021/7072/BillText/er/PDF>. Acesso em 05/01/2023.
[30] ESTADOS UNIDOS DA AMÉRICA. A lei estadual House Bill 20 do Estado do Texas foi suspensa por decisão liminar da Suprema Corte dos Estados Unidos, Supreme Cort, p. 1/55. Disponível em: <https://www.supremecourt.gov/DocketPDF/21/21A720/225388/20220513192559757_Supreme%20Court%20Vacatur%20Application.pdf>. Acesso em 05/01/2023.
[31] Estados Unidos Da América. A lei estadual SB 7072 do Estado da Flórida foi suspensa por decisão liminar da Corte do Distrito Norte da Flórida, Supreme Court, p. 1/31. Disponível em: <https://storage.courtlistener.com/recap/gov.uscourts.flnd.371253/gov.uscourts.flnd.371253.113.0_1.pdf>. Acesso em 05/01/2023.
[32] Vale citar o paradigmático julgamento do “caso Ellwanger” pelo Supremo Tribunal Federal: “HABEAS-CORPUS. PUBLICAÇÃO DE LIVROS: ANTISEMITISMO. RACISMO. CRIME IMPRESCRITÍVEL. CONCEITUAÇÃO. ABRANGÊNCIA CONSTITUCIONAL. LIBERDADE DE EXPRESSÃO. LIMITES. ORDEM DENEGADA (...)13. Liberdade de expressão. Garantia constitucional que não se tem como absoluta. Limites morais e jurídicos. O direito à livre expressão não pode abrigar, em sua abrangência, manifestações de conteúdo imoral que implicam ilicitude penal. 14. As liberdades públicas não são incondicionais, por isso devem ser exercidas de maneira harmônica, observados os limites definidos na própria Constituição Federal (CF, artigo 5º, § 2º, primeira parte).” (BRASIL, Supremo Tribunal Federal, Habeas Corpus nº 82424-RS, Relator: MOREIRA ALVES, Data de Julgamento: 17/09/2003, Tribunal Pleno, Data de Publicação: 19-03-2004, Disponível em: < https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=79052 >. Acesso em 28/06/2023).
[33] Organização Pan-Americana Da Saúde, Entenda a infodemia e a desinformação na luta a COVID-19: kit de ferramentas de transformação digital, c2019, p. 2, Disponível em: <https://iris.paho.org/bitstream/handle/10665.2/52054/Factsheet-Infodemic_por.pdf?sequence=16>. Acesso em 19/10/2022.
[34] World Health Organization, Infodemic, c2023, Disponível em: <https://www.who.int/health-topics/infodemic#tab=tab_1>. Acesso em 05/05/2022.
[35] Vide parte da decisão proferida pelo Ministro Alexandre de Moraes no Inquérito 4.879, em 08/01/2023: “(...) Na data de hoje, 8/1/2023, a escalada violenta dos atos criminosos resultou na invasão dos prédios do PALÁCIO DO PLANALTO, do CONGRESSO NACIONAL do SUPREMO TRIBUNAL FEDERAL, com depredação do patrimônio público, conforme amplamente noticiado pela imprensa nacional (...)” (BRASIL, Supremo Tribunal Federal, Inquérito 4.789-DF, Relator Alexandre de Moraes, Brasília, DF, decisão monocrática, 08/01/2023, p. 5, Disponível em: <https://www.stf.jus.br/arquivo/cms/noticiaNoticiaStf/anexo/DECISA771OAfastagovernadoreoutrasmedidas2.pdf.>. Acesso em 09/01/2023).
[36] Leonardi, Marcel, Fundamentos de Direito Digital, São Paulo, Revista dos Tribunais, 2019, p. 90.
[37] Leonardi, Marcel, Direito @ Internet, In: ADAMEK, Marcelo Vieira (coords.), Internet e Regulamentação: o bom exemplo do Marco Civil da Internet, São Paulo, Revista do Advogado da AASP, n. 115, 2012, p. 109.
[38] Souza, Carlos Affonso, Teffé, Chiara Spadaccini, Fake News e eleições: Identificando e combatendo a desordem informacional. In: Abboud, Georges, Nery, Jr., Nelson, Campos, Ricardo (orgs.), Fake News e Regulação, 2ª ed., São Paulo, Revista dos Tribunais, 2020, p. 282.
[39] Apresentam-se duas ementas a título exemplificativo: “Ação de obrigação de fazer. Publicação de vídeo no Youtube, no contexto da pandemia de Covid-19, intitulado ‘Médico esvazia UTI usando o remédio correto no vírus!’. Autora que foi punida por violação às diretrizes da comunidade com proibição de usar recursos como o envio de vídeos, postagens na comunidade ou transmissões ao vivo por uma semana. Pedido cominatório julgado procedente condenando-se a ré a retirar a punição e remover o registro da infração. Reforma da sentença de rigor. Perda superveniente de interesse no tocante à punição, cujo prazo expirou. Ademais, ausência de ilicitude no comportamento da ré que justifica sejam mantidos os registros da infração. Não vislumbrada, ainda, violação ao contraditório, censura ou ofensa à liberdade de expressão. Precedentes. Recurso provido.” (BRASIL, Tribunal de Justiça de São Paulo, Apelação Cível n.º 1022578-62.2022.8.26.0100, 36ª Câmara de Direito Privado Relator Milton Carvalho, data do julgamento. 05/10/2022); “Ação de obrigação de fazer e não fazer. Autor que pleiteia o restabelecimento de vídeos que foram excluídos pela ré na plataforma digital Youtube. Publicações que violaram as diretrizes definidas pela ré para combater a desinformação relacionada à pandemia da covid-19. Controle posterior do conteúdo que não configura censura e, no caso, não se mostrou exagerado, sendo razoável a conduta da ré de fixar diretrizes baseadas nas orientações da OMS e das autoridades locais de saúde. Penalidades impostas ao autor que se justificam plenamente. Violação ao princípio da isonomia que também não restou caracterizada. Improcedência da ação. Sentença mantida. Recurso improvido.” (BRASIL, Tribunal de Justiça de São Paulo, Apelação Cível n.º 1087666-81.2021.8.26.0100, 32ª Câmara de Direito Privado, Relator Ruy Coppola, data do julgamento 21/07/2022, Disponível em: <https://esaj.tjsp.jus.br/cjsg/getArquivo.do?cdAcordao=15867917&cdForo=0>. Acesso em 28/06/2023).
[40] Campos, Ricardo, Metamorfose do Direito Global, São Paulo, Contra Corrente, 2022, p. 315-316.
[41] Maranhão, Juliano, Campos, Ricardo, Fake News e autorregulamentação regulada das redes sociais no Brasil: fundamentos constitucionais, In: Abboud, Georges, Nery Jr., Nelson, Campos, Ricardo (Orgs.). Fake News e Regulação, 2ª ed., São Paulo, Revista dos Tribunais, 2020, p. 326-327.
[42] Alemanha, Ntezwerkdurchsetzungsgesetz – NetzDG, Disponível em: <https://www.gesetze-im-internet.de/netzdg/BJNR335210017.html>. Acesso em 08/05/2022.
[43] Cappi, Juliano, Internet. Big Data e discurso de ódio: reflexões sobre as dinâmicas de interação no Twitter e os novos ambientes de debate político. 62 f. Tese (Doutorado em Comunicação e Semiótica) – Pontifícia Universidade Católica de São Paulo, São Paulo, 2017, p. 62, Disponível em: <https://tede2.pucsp.br/bitstream/handle/20644/2/Juliano%20Cappi.pdf.>. Acesso em 21/10/2022.
[44] Brasil, Câmara dos Deputados, Projeto de Lei nº 2630/2020, Disponível em: <https://www.camara.leg.br/propostas-legislativas/2256735>. Acesso em 06/01/2023.
[45] União Europeia. Proposta de REGULAMENTO DO PARLAMENTO EUROPEU E DO CONSELHO relativo a um mercado único de serviços digitais (Regulamento Serviços Digitais) e que altera a Diretiva 2000/31/CE. Bruxelas, 15/12/2020. EUR-Lex. Disponível em: <https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX:52020PC0825>. Acesso em 19/10/2022.
[46] Rais, Diogo, Sales, Stela Rocha, Fake News, Deepfakes e Eleições In: Fake News a conexão entre a desinformação e o direito, São Paulo, RT, 2020, p. 26-34.
[47] Laux, Francisco de Mesquita, Redes sociais e limites da jurisdição, São Paulo: RT, 2021, p. 331.
[48] Lawrence, Lessig, The Law of the Horse: What Cyber Law Might Teach, Harvard Law Review, n. 113, rev. 501, 1999, p. 17. Disponível em: <https://cyber.harvard.edu/works/lessig/LNC_Q_D2.PDF>. Acesso em 28/06/2023.