top of page

AUTORREGULAÇÃO DE FAKE NEWS NO FACEBOOK: INCENTIVOS E FREIOS À PROLIFERAÇÃO DE DESINFORMAÇÃO

Gustavo Ferraz Sales Carneiro Bacharel em Direito pela Universidade de Brasília. Mestre em Políticas Públicas pela Hertie School of Governance. Servidor Público e Mediador. gustavofsc@gmail.com Área do Direito: Civil Resumo: A desinformação constitui problema público relevante, pois traz consequências sociais e econômicas para o mundo real. As redes sociais, como o Facebook, inovaram em seu modelo de negócios, trazendo o direcionamento de informações por meio de algoritmos. Ademais, há inúmeros incentivos para que os usuários gastem o máximo de tempo realizando o máximo de interações possíveis. A desinformação não causa prejuízos a esse modelo de negócio, pelo contrário, gera engajamento. As iniciativas trazidas pela empresa, de checagem de fatos e diminuição do alcance de conteúdos suspeitos, apesar de não constituírem censura prévia, não são eficazes para enfrentar o problema, frente aos incentivos que as redes trazem para a sua proliferação. Palavras-chave: Fake news – Internet – Redes sociais – Regulação – Políticas públicas Abstract: Misinformation is a relevant public problem, due to its social and economic consequences for the real world. Social networks, such as Facebook, have built innovative business models, selling advertising tailored made through algorithms. There are incentives for users to spend as much time as possible interacting as much as possible. Misinformation does not damage this business model, on the contrary, it generates engagement. Therefore, self regulatory initiatives, such as fact checking and the reduction of the scope of suspicious content, are inefficient for facing this problem. Keywords: Regulation – Fake News – Public Policy – Internet – Social Networks Sumário: Introdução


Introdução

Hoje, a internet é cada vez mais o espaço onde realizamos atividades que antes pertenciam ao mundo físico, ou real. Fazemos compras, atividades profissionais e inclusive educacionais no mundo virtual. Além disso, os meios de comunicação e de informação outrora analógicos estão cada vez mais dentro desse ambiente.

Historicamente, a internet constitui um ambiente de compartilhamento de dados em rede com alguns princípios basilares. Um deles é a neutralidade da rede, princípio consagrado no ordenamento jurídico brasileiro, pela Lei 12.965/2015, o Marco Civil da Internet, que em seu artigo 9° indica que

“o responsável pela transmissão, comutação ou roteamento tem o dever de tratar de forma isonômica quaisquer pacotes de dados, sem distinção por conteúdo, origem e destino, serviço, terminal ou aplicação.”

Assim, na internet, as informações trocadas, considerada como os pacotes de dados, devem ser tratadas sem discriminação pelos responsáveis pela sua transmissão.

Dentro das redes sociais, ocorre o fenômeno diverso. Empresas como Google e Facebook possuem apelo frente aos usuários, justamente pelo fato de terem desenvolvido algoritmos que fazem discriminação do que é mostrado a eles. Utilizando-se de inteligência artificial, esses provedores de serviços desenvolvem experiências customizadas a cada usuário, possibilitando, assim, ganhar dividendos com o direcionamento de conteúdo e a veiculação de anúncios. Do ponto de vista do usuário, as experiências estruturadas pelos algoritmos oferecem uma experiência única. A timeline de cada usuário do Facebook ou Twitter será única. Os resultados de pesquisas no Google e YouTube também serão únicos. Assim, as empresas aperfeiçoam continuamente seus algoritmos e alteram a forma como interagimos nos espaços virtuais oferecidos.

Esse aperfeiçoamento do serviço oferecido pelas redes sociais tem sido tão bem-sucedido que uma pesquisa noticiada pelo site Quartz constatou que, ao serem indagados se concordavam com a afirmação “o Facebook é a internet”, 55% dos brasileiros entrevistados disseram que sim (na Nigéria o percentual foi de 65%)1.

As notícias falsas (fake news) se tornaram nos últimos anos assunto primordial no debate relativo à utilização legítima ou não das redes sociais como forma de disseminação de informações. Os efeitos inegáveis no mundo real podem ser sentidos em diversas áreas, desde estratégias de marketing de empresas até campanhas eleitorais, passando por questões de respeito à imagem e à honra de pessoas. Soma-se a isso o fato de que o ambiente virtual, em que a maior parte das fake news se prolifera, faz parte do “território” de empresas privadas, em sua maioria transnacionais, e tem-se os ingredientes para afirmar que as fake news constituem um problema público que requer providência dos diversos atores (públicos e privados) para seu melhor conhecimento e enfrentamento.

Em 2018 houve a denúncia do uso questionável de dados pessoais de usuários do Facebook pela Cambridge Analytica2, o que levou a suspeitas de utilização desses dados para o direcionamento de conteúdo destinado a influenciar no processo político. A denúncia foi tão grave que levou ao posterior comparecimento do presidente da empresa em ambas as casas do Congresso Americano, bem como no Parlamento Europeu para explicitar qual era o modelo de negócios da empresa e como ela estava lidando com os problemas indicados: tanto da perspectiva de identificação e combate às fake news, quanto da proteção de dados pessoais.

No Brasil, especialmente no âmbito das eleições de 2018, esse tema ganha relevância, tendo em vista que atualmente a utilização de dados inverídicos é cada vez mais frequente, alcançando partidos e candidatos dos mais diversos matizes ideológicos3. Atualmente há diversas agências destinadas à checagem de fatos, ou seja, à verificação da veracidade de fake news. Essas instituições são geralmente ligadas a grandes veículos de comunicação e jornalismo, e analisa desde correntes de WhatsApp até declarações dadas por candidatos em entrevistas4.

O Massachussets Institute of Technology (MIT) define fake news como informações fabricadas que imitam conteúdo de mídia tradicional em sua forma, mas não em seu processo organizacional ou intenção. Em um estudo chamado “The science of fake news5, publicado em março de 2018, constatou-se que o poder de proliferação das fake news é três vezes maior que a de outros conteúdos. Segundo o estudo, mesmo controlando-se a presença de robôs (os chamados bots), há uma maior propensão ao compartilhamento de fake news pelos usuários de redes. Dentre as hipóteses sobre as causas para isso, o estudo aponta que essas notícias falsas usualmente são construídas para confirmar as visões de mundo de sua audiência, “falando o que querem ouvir”, além de ter um caráter de urgência ou novidade. Assim, incentivam o impulso natural do leitor de compartilhamento.


Como o Facebook incentiva interações para vender atenção

O Facebook foi fundado em 2004 e atualmente é o terceiro site mais visitado no mundo6, segundo o Ranking Alexa, estando atrás apenas do Google e do Youtube. Possui cerca de 2,1 bilhões de usuários ativos no mundo e 127 milhões de usuários mensais no Brasil7. A empresa possui um valor de mercado de 442,1 bilhões em março de 20188.

O modelo de negócios da empresa está fundado na venda de anúncios e espaço para publicidade, como tantos outros meios tradicionais. No entanto, a empresa inova ao adicionar fatores que antes não eram possíveis em outros empreendimentos, indo além do foco em nichos de mercado para a compreensão de tendências individualizadas de consumidores. Por meio de critérios hoje inerentes ao mundo digital, tais como as interações de compartilhar e reagir, consegue gerar novas fontes de valor9.

O site trata essas interações como bens econômicos e busca, assim, capturar o máximo da atenção do usuário, dando incentivos para que haja o máximo de interações sociais dentro de seu “território”, o que permite um melhor mapeamento e direcionamento de anúncios.

A faceta mais nítida de como a atenção é capitalizada pelo Facebook é a venda de anúncios pagos, que surgem na tela da plataforma, muitas vezes direcionados pelas conversas e curtidas dos usuários. No entanto, desde 2013, com a implementação da timeline, o Facebook passou tomar o controle do que é ofertado a cada usuário, indo muito além dos anúncios fixos. O oferecimento de uma experiência customizada, possibilita à plataforma capitalizar o impulsionamento não só de anúncios, mas de qualquer conteúdo, na forma de publicações, páginas e vídeos.

Se fosse uma praça de alimentação, até 2013 o Facebook oferecia o espaço para que as lojas expusessem seus produtos na mesa de buffet. Os clientes podiam entrar, mas deveriam se levantar para se servir. Com a introdução da timeline, o algoritmo se tornou o garçom de um rodízio, onde a ordem dos pratos e a quantidade de vezes que é ofertada ao cliente é definida pela plataforma. E, além de consumir ou não os pratos, os clientes são convidados a dizer se gostam, rejeitam, recomendam e assim por diante. Assim, o site busca aperfeiçoar cada vez mais seu algoritmo, tendo “um único objetivo – agradar amplamente o usuário, tornando sua experiência a mais prazerosa possível”10.

Segundo Eduardo Magrani, os filtros-bolhas podem ser definidos

“como um conjunto de dados gerados por todos os mecanismos algorítmicos utilizados para se fazer uma edição invisível voltada à customização da navegação on-line. Em outras palavras, é uma espécie de personificação dos conteúdos da rede, feita por determinadas empresas como o Google, através de seus mecanismos de busca, e redes sociais como o Facebook, entre diversas outras plataformas e provadores de conteúdo.”11

Sérgio Branco entende que as bolhas formadas pelos algoritmos limitam a diversidade, na medida em que o usuário recebe conteúdo postado por outros usuários (amigos e conhecidos) com quem já detém afinidade ideológica. Ele aponta também que a arquitetura da rede fomenta o reforço de estímulos, já que quanto mais um conteúdo é curtido, comentado e compartilhado, mais o algoritmo assegurará que ele receba atenção de outros usuários12.

Ao mesmo tempo em que consegue direcionar o que é mostrado ao usuário, há um constante esforço em diminuir ao máximo os custos das interações e da manifestação de opiniões. Em uma analogia com conceitos econômicos, se as interações são os bens comercializados pela plataforma, o Facebook busca em toda sua construção a diminuição dos custos de transação dessas interações.

Esses custos de transações devem ser pensados não somente em termos financeiros, mas também de gastos tempo, raciocínio, maturação da opinião e de reflexão, potenciais custos sociais de exposição. Quanto custa para um usuário do Facebook escrever um post? E um comentário ou compartilhamento? Uma reação (curtir, amar, rir, se espantar, sentir tristeza ou raiva), um gif, emoji ou meme é mais ou menos valiosa em qual medida? Há possibilidades diversas de acordo com o grau de disposição do usuário para interagir com o que lhe é apresentado.

No âmbito do marketing digital, engajamento é a palavra de ordem. Ela mede a interação que o usuário tem com o conteúdo apresentado13. O incentivo do Facebook a todas essas interações significa maior período de atenção que a plataforma receberá de seus usuários, o que se traduzirá concomitantemente em maior tempo exposto aos anunciantes, bem como maior fonte de colheita de dados para aperfeiçoamento da plataforma. Essa receita leva a um potencial de aumento infinito do valor da empresa, uma vez que este valor está ligado diretamente ao potencial de aumento igualmente infinito das interações entre seus usuários14.

Nessa perspectiva, o aumento da proliferação de mentiras e boatos nas redes sociais e especialmente no Facebook não configura, necessariamente, um efeito incompatível com a rede de estímulos desenhadas pela plataforma para capturar mais atenção dos usuários e incentivar mais interações entre as pessoas. As fake news se encaixam perfeitamente no sistema desenvolvido por essas redes para seu modelo de negócios, apelando para o impulso do usuário em interagir com um conteúdo que cause espanto ou confirme sua visão de mundo, conforme afirmado anteriormente.


Como o Facebook quer frear as fake news

Hoje o Facebook oferece algumas formas de lidar com as notícias falsas, contando com um guia para o usuário que queira aprender a identificar essas notícias15 e com um sistema de verificação de fatos (fact-checking) baseada em instituições parceiras, todas certificadas pela International Fact-Checking Network. Essas instituições podem classificar as histórias entre diversas gradações, desde falsa e verdadeira, até “gerador de pegadinhas”, que são aqueles sites que permitem usuários criarem suas próprias notícias de mentirinha para publicação em sites de mídias sociais16. Caso o conteúdo seja classificado como uma notícia falsa, as histórias podem ter seu alcance diminuído, por meio da impossibilidade de sugestão da notícia como assunto correlato a outros ou pela diminuição de sua relevância para resultados de busca, por exemplo. Caso páginas tenham seus conteúdos reiteradamente classificados como falsos, sua habilidade de monetizar e de impulsionar as histórias será diminuído, o alcance de sua página poderá ser reduzido e eventualmente a página poderá ser excluída da rede social.

De acordo com a plataforma, o Facebook lida com as notícias falsas da seguinte forma: identificando as notícias (o que é feito pelo usuário), analisando as histórias (feita por instituições parceiras), diminuindo o alcance de histórias falsas (mostrando essas notícias na parte inferior da timeline) e tomando medidas contra os reincidentes (que poderão ter sua capacidade reduzida e sua capacidade de anunciar reduzida)17.

De um lado, o Facebook fez um guia de como o usuário pode identificar se uma notícia é falsa ou não. Assim, ele mesmo poderá denunciar para a plataforma a notícia como falsa, seguindo os seguintes conselhos do Facebook:

•ser cético com manchetes (notícias falsas usam manchetes apelativas, com alegações chocantes);

•olhar atentamente para a URL (que poderá dar indícios de que a notícia se faz passar por um site conhecido, com pequenas diferenças);

•investigar a fonte (buscar ver se a fonte da notícia é confiável e tem boa reputação);

•ficar atento a formatações incomuns (muitos sites de notícias falsas possuem erros de formatação, erros ortográficos ou layouts diferentes)

•prestar atenção nas fotos e datas (muitas vezes as notícias falsas possuem fotos manipuladas e datas que não fazem sentido);

•verificar as evidências (veja as fontes utilizadas pelo autor);

•buscar outras reportagens (verificar se outros veículos estão falando sobre o assunto).

Se a plataforma aposta na iniciativa do usuário para a identificação das fake news, os próximos passos ficam por conta de instituições parceiras e terceiros. A verificação dos fatos está a cargo das agências de checagem de fatos independentes certificadas pela International Fact-Checking Network (no Brasil a Agência Lupa, Agência Pública – Truco e Aos Fatos)18. As agências devem classificar as notícias e histórias de acordo com as oito opções abaixo:

“1. Falso: as alegações principais do conteúdo apresentam fatos imprecisos. Isso corresponde, em geral, a classificações do tipo ‘falso’ ou ‘falso na maior parte’ nos sites de verificadores.

2. Misto: as alegações do conteúdo são uma mistura de precisas e imprecisas, ou o artigo é enganoso ou incompleto.

3. Verdadeiro: as principais alegações do artigo apresentam fatos precisos. Isso corresponde, em geral, a classificações do tipo ‘verdadeiro’ ou ‘verdadeiro na maior parte’ nos sites de verificadores.

4. Sátira: o conteúdo é publicado por uma Página ou domínio que é uma publicação de sátira conhecida, ou uma pessoa sensata entenderia que o conteúdo é ironia ou humor com uma mensagem social. Ele se beneficiaria de contexto adicional.

5. Opinião: o conteúdo expressa uma opinião pessoal, defende um ponto de vista (por exemplo, em relação a um problema político ou social) ou é autopromocional.

6. Não elegível: o conteúdo não contém uma alegação que possa ter os fatos verificados e deve ser removida da fila.

7. Gerador de pegadinhas: sites que permitem aos usuários criarem suas próprias notícias “de mentirinha” para publicação em sites de mídias sociais.

8. Não classificado: este é o estado padrão antes de um conteúdo ser verificado ou se a URL não estiver funcionando. Deixá-lo nesse status (ou voltar a essa classificação após outra classificação) indica que não devemos tomar qualquer providência com base na sua classificação.”

Após a verificação, caso o conteúdo for classificado como falso ou misto, ele terá sua distribuição reduzida. Segundo o Facebook, ele aparecerá mais baixo no feed de notícias e será acompanhado por alguns outros conteúdos indicados pelas agências verificadoras de fatos.

As páginas que praticam esses atos reiteradamente terão seu alcance reduzido e não poderão utilizar anúncios para impulsionarem seus conteúdos. Caso tenha alguma divergência com a classificação, o criador do conteúdo pode ou contestar diretamente com a agência verificadora ou corrigir o conteúdo. Se uma classificação for corrigida ou contestada de forma exitosa, o bloqueio é removido e se recupera o status original da página. Essas correções e contestações são feitas a cargo dos verificadores de fatos.

Por fim, os criadores de conteúdo (incluindo os usuários que compartilham conteúdos) que reiteradamente tenham comportamentos incompatíveis com as guias de conduta da rede social poderão ser excluídos da plataforma19.

Retornando à metáfora da praça de alimentação, o algoritmo-garçom do Facebook deixa de levar os alimentos classificados como prejudiciais (as fake news) aos clientes em sua mesa, mas mantém eles no buffet, no fundo da mesa. Ao lado desses alimentos há um aviso de que não é recomendado seu consumo, bem como a sugestão de consumo de outro alimento. Caso aquele que produziu o alimento faça reiteradas vezes alimentos prejudiciais, este é banido da praça de alimentação.


Como a checagem de fatos se relaciona com os valores da liberdade de expressão e a proibição da censura prévia

Há diversos pontos a serem considerados quanto à potencial regulação do tema da desinformação e das notícias falsas. Inicialmente, verifica-se que o Facebook (bem como outros grandes como Twitter e Google) buscou tomar atitudes internas para lidar com o problema. Tendo em vista a perspectiva da empresa, utilizar-se de iniciativas como essa traz benefícios pois em comparação com soluções que envolvem o poder público, apresentam custos mais baixos, mais rapidez, melhora na reputação da empresa (tanto para usuários, autoridades e acionistas) e menor interferência do público nos assuntos internos20.

Como pontos negativos, da perspectiva de interesse público, enumera-se a baixa transparência dos critérios utilizados para a checagem de fatos, bem como a falta de legitimidade dessas agências, uma vez que, apesar de serem certificadas por instituição, novamente não há transparência sobre qual o processo de certificação, nem quanto aos potenciais conflitos de interesses envolvidos na checagem.

Mais que a falta de transparência das agências de regulação, não há possibilidade de auditoria da arquitetura de algoritmos do Facebook que construiu o ambiente propício à proliferação das desinformações. O que é possível perceber é que a iniciativa da empresa busca dar uma resposta ao problema que passe ao largo da construção que tem sido feita cuidadosamente desde sua fundação, que busca o condicionamento de seus usuários a interações infindáveis em seu “território virtual”.

Essa iniciativa de autorregulação certamente é uma antecipação à potencial regulação feita pelo Congresso sobre o tema. Levantamento da Agência Pública constatou que até meados de 2018 foram propostos dez novos projetos, de um total de vinte que tramitam no Congresso (dezenove na Câmara e um no Senado). Essa quantidade tão alta de projetos apresentados em tão curto tempo é reflexo do aumento de exposição do assunto na mídia. Há diversas propostas feitas por partidos de todos os matizes ideológicos, mas em comum todos buscam lidar com a questão por meio da criminalização de condutas, ou com aumento de penas para crimes já existentes21.

Pelo exposto até agora, atualmente os mecanismos de checagem de fatos utilizados pelo Facebook não são incompatíveis com a liberdade de expressão conforme consagrado na Constituição de 1988, uma vez que não envolve o controle prévio, nem a retirada de conteúdos, mesmo após a classificação dos conteúdos como falso ou misto. É relevante ressaltar que, segundo o Marco Civil da Internet22, a retirada de conteúdos somente poderá ocorrer após mandado judicial. Há questionamento se o banimento do usuário constituiria caso de censura, o que parece ser uma discussão interessante.


Conclusão

As iniciativas apresentadas pelo Facebook ainda são tímidas em face do desafio colocado à plataforma. De um lado tem-se um sistema extremamente bem-sucedido para incentivar bilhões de indivíduos a constantemente acessarem a plataforma e a interagirem cada vez mais, por meio de curtidas, compartilhamentos, comentários e outras possibilidades, o que fornece o ambiente mais propício para a proliferação dos boatos e notícias falsas. De outro lado, há um trabalho ainda inicial para identificação de quais assuntos seriam classificados como falsos e ficariam, assim, fora do ambiente de incentivos às interações. Qual prato sairá do buffet do Facebook? Quem é o curador desse menu e como ele faz essa escolha?

A tensão entre o constante incentivo à inflação de interações na plataforma e a necessidade de se incentivar um maior pensamento crítico do usuário (o que seria um freio a essas interações) constitui uma equação difícil de fechar para a empresa. Atualmente, é possível constatar que as soluções trazidas pela plataforma estão fadadas à irrelevância, já que os incentivos criados pela própria plataforma aos seus usuários funcionam como combustível imensamente mais eficaz para o alastramento da desinformação, tornando o antídoto proposto, na melhor das hipóteses, incipiente. Some-se a isso a falta de transparência do processo interno da checagem de fatos e sua potencial afronta à liberdade de expressão. Ao mesmo tempo, iniciativas como as mapeadas no Congresso Nacional são formas simplistas e fáceis de lidar com questões complexas.

Qualquer solução para o problema público da desinformação passará necessariamente pelo envolvimento da academia, da iniciativa privada, da sociedade civil e das organizações do Estado. Isso porque os prejuízos trazidos pela proliferação de desinformação transbordam a esfera privada para se tornarem questões socialmente coletivas, com a complexidade que isso traz. Assim, não é razoável esperar que essas empresas criem autorregulações que afrontem seus modelos de negócios, ainda mais desconstruindo seu trabalho de mais de uma década de construção de novos hábitos para bilhões de pessoas.


Referências bibliográficas

BRANCO, Sérgio. Fake news e os caminhos para fora da bolha. Interesse Nacional, São Paulo, ano 10, n. 38, p. 51-61, ago.-out. 2017. Disponível em:[https://itsrio.org/wp-content/uploads/2017/08/sergio-fakenews.pdf]. Acesso em: 20.02.2019.

CONSTANTINO, Cathy; MERCHANT, Christina. Designing conflict management systems: a guide to creating productive and healthy organizations. San Francisco: Jossey-Bass, 1996. 252 p.

HERNÁNDEZ, Carlos Alberto Esparza. Facebook: the business model rooted in the social. Disponível em: [www.academia.edu/35870398/Facebook_the_Business_Model_Rooted_in_the_Social]. Acesso em: 12.09.2018.

LAZER, David et al. The science of fake news. Science, [S.l.], n. 359, p. 1094-1096, mar. 2018. Disponível em: [http://science.sciencemag.org/content/359/6380/1094.full]. Acesso em: 28.06.2018.

MAGRANI, Eduardo. Democracia conectada. a internet como ferramenta de engajamento político-democrático. Curitiba: Juruá Editora. 2014 Disponível em: [http://bibliotecadigital.fgv.br/dspace/bitstream/handle/10438/14106/Democracia%20conectada.pdf?sequence=1&isAllowed=y]. Acesso em: 20.02.2019.

ROGERS, Nancy et al. Designing systems and processes for managing disputes. ‎Alphen Aan Den Rijn: Wolters Kluwer Law & Business, 2014. 496 p.

URY, William. Getting disputes resolved: designing systems to cut the costs of conflict. San Francisco: Jossey-Bass, 1988. 201 p.

VIGIL, Tammy e WU, Denis. Facebook users’ engagement and perceived life satisfaction. Media and Communication, Disponível em: [www.academia.edu/15228478/Facebook_Users_Engagement_and_Perceived_Life_Satisfaction]. Acesso em: 12.09.2018.

1 Disponível em: [https://qz.com/333313/milliions-of-facebook-users-have-no-idea-theyre-using-the-internet/]. 2 Para mais informações, Disponível em: [www.nytimes.com/2018/03/19/technology/facebook-cambridge-analytica-explained.html]. Acesso em: 17.02.2019. 3 Como exemplos “É #FAKE imagem em que Manuela D'Ávila aparece com camiseta 'Jesus é travesti'”, disponível em: [https://g1.globo.com/fato-ou-fake/noticia/2018/10/02/e-fake-imagem-em-que-manuela-davila-aparece-com-camiseta-jesus-e-travesti.ghtml]. Acesso em: 17.02.2019; Áudio atribuído a Jair Bolsonaro no hospital é falso, disponível em: [www1.folha.uol.com.br/poder/2018/09/audio-atribuido-a-jair-bolsonaro-no-hospital-e-falso.shtml]. Acesso em: 17.02.2019. 4 Há diversos serviços de checagem liderados pelos grandes grupos jornalísticos brasileiros, como o Fato ou Fake, do G1, ligado ao grupo Globo e a Agência Lupa, ligada ao grupo Folha. 5 LAZER et al. The science of fake news. Science 2018, 359 (6380). p. 1094. 6 Informação disponível em: [www.alexa.com/siteinfo/facebook.com]. Último acesso em: 20.02.2019. 7 Informação disponível em: [www1.folha.uol.com.br/tec/2018/07/facebook-chega-a-127-milhoes-de-usuarios-mensais-no-brasil.shtml]. Último acesso em: 11.09.2018. 8 Informação disponível em: [https://g1.globo.com/economia/noticia/acoes-do-facebook-operam-em-alta-apos-empresa-perder-mais-de-us-95-bilhoes-em-valor-de-mercado.ghtml]. Último acesso em: 11.09.2018. 9 HERNÁNDEZ, Carlos Alberto Esparza. Facebook: the business model rooted in the social. Disponível em: [www.academia.edu/35870398/Facebook_the_Business_Model_Rooted_in_the_Social]. Último acesso em: 12.09.2018. 10 BRANCO, Sérgio. Fake news e os caminhos para fora da bolha. Interesse Nacional, São Paulo, ano 10, n. 38, p. 51-61, ago.-out. 2017. p.51 11 MAGRANI, Eduardo. Democracia conectada. a internet como ferramenta de engajamento político-democrático. Curitiba: Juruá Editora. 2014. p. 118 12 BRANCO, Sérgio. Fake news e os caminhos para fora da bolha. Interesse Nacional, São Paulo, ano 10, n. 38, p. 51-61, ago.-out. 2017. p. 57. 13 VIGIL, Tammy e WU, Denis. Facebook users’ engagement and perceived life satisfaction. Media and Communication, Disponível em: [www.academia.edu/15228478/Facebook_Users_Engagement_and_Perceived_Life_Satisfaction]. Último acesso em: 12.09.2018. 14 HERNÁNDEZ, Carlos Alberto Esparza. Facebook: the business model rooted in the social. Disponível em: [www.academia.edu/35870398/Facebook_the_Business_Model_Rooted_in_the_Social]. Último acesso em: 12.09.2018. 15 FACEBOOK, Dicas para identificar uma notícia falsa. Disponível em: [www.facebook.com/help/188118808357379]. Acesso em:28.06.2018 e Como faço para marcar uma notícia como falsa. Disponível em: [www.facebook.com/help/www/572838089565953?helpref=platform_switcher&ref=platform_switcher&rdrhc]. Acesso em: 28.06.2018. 16 Disponíveis em: [www.facebook.com/help/publisher/182222309230722].[www.facebook.com/help/www/1952307158131536?helpref=faq_content]. Acesso em: 24.04.2020. Código de ética e lista de agências certificadas na International Fact-Checking Network. Disponível em: [www.poynter.org/international-fact-checking-network-fact-checkers-code-principles]. Acesso em: 28.06.2018. 17 FACEBOOK, Como o Facebook está lidando com as notícias falsas por meio de verificadores de fatos independentes? Disponível em: [www.facebook.com/help/www/1952307158131536?helpref=faq_content]. Último acesso: 12.09.2018. 18 Lista disponível em: [https://ifcncodeofprinciples.poynter.org/signatories]. Último acesso em: 12.09.2018. 19 “Facebook exclui páginas de 'rede de desinformação'; MBL fala em 'censura'”. Notícia sobre a retirada de páginas pelo Facebook disponível em: [https://g1.globo.com/economia/tecnologia/noticia/2018/07/25/facebook-retira-do-ar-rede-de-fake-news-ligada-ao-mbl-antes-das-eleicoes-dizem-fontes.ghtml]. Último acesso em: 12.09.2018. 20 ROGERS, Nancy et al. Designing Systems and Processes for Managing Disputes. Alphen Aan Den Rijn: Wolters Kluwer Law & Business, 2014. 496 p. 21 Para mais informações sobre o posicionamento deste autor, veja “Como lidar com as fake news?”, disponível em: [https://congressoemfoco.uol.com.br/opiniao/colunas/como-lidar-com-as-fake-news/]. Último acesso em: 12.09.2018. 22 Lei 12.965/2014 (LGL\2014\3339), art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

Comentários


TOP.png

WhattsApp

(84) 98180-2013

Horário de funcionamento:

Seg - Sex: 07h às 18h

Melo & Galvão Advogados Associados. © 2013
19.606.395/0001-07

Siga-nos

  • Preto Ícone Instagram
  • Preto Ícone Facebook
  • Preto Ícone LinkedIn
  • Preto Ícone Twitter
bottom of page