VIÉS E RACISMO NO POLICIAMENTO PREDITIVO: CASOS ESTADUNIDENSES E OS REFLEXOS DE CONEXÃO COM O BRASIL
- Raul Maia
- 25 de jun. de 2020
- 23 min de leitura
Pedro Arthur Capelari de Lucena Mestre em Direito Constitucional pela Universidade de Lisboa. Especialista em Direito Público pela Fundação Escola Superior do Ministério Público, Rio Grande do Sul. Advogado e Diretor de Negócios na Empresa APOIA.se. pedroarthurclucena@protonmail.com Área do Direito: Constitucional; Penal Resumo: As inovações das capacidades de compreensão dos conhecimentos tecnológicos exponenciais, com processos múltiplos de aprendizagem, trouxeram interessantes ferramentas de embate das injustiças. De inúmeros modos, pessoas e instituições usam a tecnologia como facilitadora das melhorias sociais. E, entre os seus usos, dar-se-á aplicação de luta contra questões que envolvem o racismo. Principalmente jovens, negros oriundos de comunidades com problemáticas econômicas e sociais, são forças motrizes destas mudanças, abusando de criatividade e qualificação, na conjugação de tecnologia com igualdade. Paralelamente, em contrapartida, outros setores da sociedade por diversas frentes, com discursos de controle e prevenção de criminalidade, utilizam da tecnologia, na perpetuação discriminatória com acentuamentos nas formas de tratamentos. São diversas as propostas de se usar a tecnologia, e em especial a aplicada a dados, com o intuito do encarceramento em massa de grupos já tão criminalizados no contexto social. No reflexo, há a contínua marginalização da população negra. Quando a Polícia Estadunidense introduz, a partir de conceitos da Escola de Chicago, um sistema de patrulhamento com indicação de locais por intermédio de aplicação de Inteligência Artificial, comunidade científica e ativistas dos Direitos Humanos passam a questionar a capacidade do sistema de não imbuir aos resultados viés discriminatório, principalmente quando relacionado às questões de racismo. Mesmo que pouquíssimos dados tenham sido divulgados pelos agentes oficiais, estudos acadêmicos, a partir de dados coletados por hackers ativistas, demonstram que existe, com o uso do policiamento preditivo com aplicação de softwares, um aumento na criminalização de indivíduos negros. Neste diapasão, a proposta é analisar, a partir da perspectiva criminológica, os perigos da tecnologia de dados com policiamento preditivo quando mal aplicada e interpretada, na manutenção de racismo estrutural, com o viés do potencializador estruturante, e os seus reflexos à realidade brasileira. Palavras-chave: Criminalização Marginal – Policiamento Preditivo – Big Data – Racismo – Estrutura Social Abstract: Technological innovations with disruptive learning processes have provided tools to fight against injustice. People and Institutions, in a several different ways, are using technology to struggle on racism, medianting social impacts and improvements in the society. Mostly young black people who live in marginal areas are leading theses changes, based on creativity and qualification integrating technology with equality. On the opposite, other social groups use technology to increase discrimination on their untrue speech of control and prevention to the criminality; Technology can be applied and contextualized on different purposes, such as data collection and analysis, aiming to generate imprisonment of groups, already criminalized in the social context. Based on Chicago School concepts, the US police introduces a patrol system, indicating places using Artificial Intelligence and scientists and human rights activists question about the system capacity of not delivering results with discriminatory bias, mainly in relation to racism. Even though restricted information has been announced by the law enforcement officials, academic studies based on information collected from hacker activists, show that there is an increase on criminalization of black people by using the predictive enforcement´s tools. Based on on that, the proposal is to analyze, under the criminological perspective, the risk of using Big Data with predictive policing, as can be misapplied and under questionable interpretation, maintaining structural racism, in a view of potential bias structures reflecting directly on Brazilian reality. Keywords: Marginal Criminalization – Predictive Policing – Big Data – Racism – Social Structure Sumário: Introdução
Introdução
“Via satélite, via satélite, 15% é Google, o resto é Deep Web... Olhe, essa é a máquina de matar pobre. No Brasil quem tem opinião, morre!”
Com estes versos Kleber Cavalcante Gomes, artisticamente conhecido como Criolo, em sua música Boca de Lobo, denuncia, com referência ao ambiente da internet, o que entende ser uma forma de violência contra certos estratos sociais.
Ao ludicamente dizer que “o resto é Deep Web”1, Criolo informa ao seu ouvinte que tem a impressão de possuir pequeno acesso às informações, no modo em que são criadas, catalogadas e distribuídas. Infere-se da argumentação do autor que não há para ele a plena sensação da existência de grandes transparências, da relação entre usuário e “controladores da internet”, que em muitos momentos se escondem em ambientes de redes e dados privados secretos. O músico também faz uma analogia em que correlaciona a violência à internet não transparente e desprotegida.
Esta sensação que o músico tem é presente também por parcela da sociedade, que não percebe a forma e o uso dos seus dados, tendo receios do seu modo de aplicação.2
Ao contrário do que Criolo alega em sua letra – tendo por óbvio que é uma representação artística, de conteúdo abstrato e que por isso não tem de ter perspectivas científicas e nem métricas reais –, as próprias questões relacionadas à internet, como as presentes nas aplicações de grandes corporações, não têm seus dados livres, e abertos às compreensões e estudos.
Ao não divulgarem, na totalidade ou pelo menos, em grande parcialidade, o uso que dão aos dados que geram, com o modo que os dispõem, empresas informam que estão agindo na garantia legal de manutenção dos seus segredos comerciais e industriais, para que empresas concorrentes não utilizem informações, ou para que, em certos casos, cidadãos não sejam colocados em risco. No mais, empresas alegam que o uso segue um respeito às cláusulas contratuais que fazem com os usuários.
Todavia, não é, em muitos casos, a realidade aplicada. Inúmeras empresas aplicam algoritmos aos bancos de dados, ultrapassando algumas cláusulas de proteção, na busca de maiores lucros ou controles de mercado, em atividades que ultrapassam limites morais e, porventura, legais.
Ao fim de frear as atividades lesivas à sociedade, leis e entidades reguladoras foram criadas com o intuito de proteger os dados pessoais, como a GDPR – European General Data Protection Regulation, a LGPD – Lei Geral de Proteção de Dados, que passará a ter vigor, no Brasil, a partir de agosto de 2020 –, e Autoridades Nacionais de Proteção de Dados.
Há, mesmo com a criação de leis e agências reguladoras, certo uso e aplicação de dados pessoais que nos assombra diante das potencialidades de seu mau uso, e que apresentam em diversos casos dificílimas dificuldades de análise, compreensão e transparência à sociedade civil. São os atos em que o Estado, seja como o verdadeiro coletor dos dados, ou em parceria com empresas privadas, aplica, muitas vezes de forma irregular e descumprindo tratados internacionais, a interpretação de dados coletados por si, ou por intermédio de terceiros, na realização de políticas públicas.
Não queremos com isso informar que é negativo o uso de meios tecnológicos para implantação de políticas públicas. Bem ao contrário, somos entusiastas.
O uso de análise e interpretação de dados, principalmente em uma realidade de Big Data3, é extremamente proveitoso como componente de melhora social de um Estado. Situações como a prevenção de doenças transmissíveis, desastres ambientais, análises financeiras, controles processuais e segurança pública4 podem usar a análise de big data como ferramenta para qualificar atividades, e reduzir custos públicos.
Mas há também – assim como tem de ser com todas as atividades públicas – a necessidade de se ter cautela, transparência e respeito aos direitos fundamentais quando a aplicação for feita usando dados gerados por inteligência artificial. Valores intrínsecos ao Estado Democrático de Direito, como direito à intimidade e a vida privada, têm de ser respeitados.5
Nosso estudo analisa principalmente modelos presentes e aplicados nos Estados Unidos, pois estes são os que subsidiam modelos que alguns servidores públicos e parcelas sociais têm interesse de aplicar no Brasil.
Haverá o recorte de apreciarmos questões que se relacionam ao preconceito racial. Ademais, também faremos o recorte de observação, apenas pontuando de forma breve e tanto quanto superficial quanto à aplicação de análise de dados em períodos anteriores ao da quarta revolução tecnológica.
A principal atenção será dada às etapas presentes, em que já há a aplicação da análise de interpretação de big data, e a realidades aproximadas, caso sejam implantados métodos já em uso em outros países e, em especial, nos Estados Unidos.
1.Os dados e os algoritmos
Basicamente, em um conceito extremamente simplificado, algoritmo é um instrumento utilizado para se atingir objetivos específicos, em menor tempo, liberando o ser humano da realização de atividades repetitivas. Com o algoritmo, ao se delimitar um problema, são realizados uma sequência de passos, que geram a resolução da problemática. Tudo expresso sempre por meio de uma linguagem.
Seu uso parte desde os primórdios das sociedades estruturadas. Antigas civilizações, como a egípcia, já aplicavam os algoritmos no desenvolvimento de cálculos, em sistemas de numeração com diversas aplicações, como questões agrícolas e de construção civil. As pirâmides, por exemplo, foram construídas com aplicação de algoritmos.
A evolução matemática, com algoritmos complexos, tem grandes influências na constituição das sociedades contemporâneas. Foi com a aplicação dos algoritmos que guerras foram vencidas, sistemas de irrigação foram criados, conhecimentos de astronomia e ciclos de marés foram compreendidos, e censos populacionais foram realizados6. E foi com a aplicação de algoritmos que dados puderam ser organizados e catalogados, preservando uma série de informações, que contam, de algum modo, a história das civilizações.
Entretanto, é com a criação do computador e sua evolução, principalmente após evoluções em machine learning, e mais recentemente, com o deep learning7 e a popularização da internet, que algoritmos tomam novo espaço de análise e presença na sociedade.
Estima-se que a cada um ano e meio a humanidade produza a mesma quantidade de dados que a criada em toda a história passada. Isso ocorre, pois, com a evolução tecnológica, numa realidade complexa, há a geração contínua de uma série de informações, seja de forma ativa, em publicações nas redes sociais, compartilhamentos de fotos, uploads de artigos e documentos, conversas nos mensageiros virtuais, uso de IOTs8, rolamento de tela9, e em modo não ativo e remoto, com dados criados sobre a nossa pessoa por agências, empresas, ou monitoramento das nossas atividades. Basta termos presença no mundo, o que pode ocorrer incrivelmente até com pessoas falecidas, para gerarmos dados.
Esta quantidade absurda e massificada de dados precisa de algoritmos complexos para que seja organizada, compreendida, e para que possa ter alguma aplicação, seja no uso individualizado ou coletivo.
Chamado de big data analysis, a interpretação de dados realizada por algoritmos em um ambiente de imenso volume, conteúdo variável e alta velocidade têm diversas aplicações.
Um destes usos dar-se-á na segurança pública. E essa terá a nossa atenção.
2.Algoritmos e a aplicação em Segurança Pública no Ocidente
O uso de dados para aplicação em segurança pública é antigo, e rememora tempos das primeiras polícias organizadas. No período do Reino de Castela e Leão, durante a Espanha medieval, os hermandades usavam dados referentes aos números de saques em estradas, e violências desferidas, para colocar pessoas armadas em locais estratégicos do Caminho de Santiago de Compostela, protegendo assim a vida dos peregrinos que faziam o caminho.
No reinado francês de Luis XIV, foram organizados os primeiros corpos de Polícia urbana ocidental, que monitoravam e fiscalizavam a população, na época, da maior cidade da Europa, Paris. Dados eram usados no patrulhamento de áreas com maiores incidentes e distúrbios.
O modelo utilizado pela França, em Paris, foi logo copiado e surgiram inúmeras outras polícias municipais. Patrulhamentos, a partir de análises de dados de locais que apresentavam maiores crimes, principalmente relacionados a crimes patrimoniais, tornaram-se comuns nos grandes centros populacionais.
E já nestas fases era bem presente o viés discriminatório. Regiões marginalizadas, com populações de baixo poder aquisitivo, sofriam o revés de um patrulhamento mais ostensivo, com maior violência, muito provocado pela forma de criminalização presente nos costumes, de preconceitos estruturados, e nas legislações penais da época.
Com a evolução da Ciência do Direito Penal10 e avanços dos direitos civis, frente a um alto esforço, tanto ativista quanto acadêmico, setores da sociedade passaram a questionar o status quo dos modelos tradicionais de se realizar o patrulhamento das policiais. Célebres decisões judiciais, principalmente nos Estados Unidos, aceitaram que havia no patrulhamento realizado com a aplicação de dados coletados pela polícia vieses discriminatórios.
Na tentativa de diminuir índices de má aplicação de dados na atividade de patrulhamento e uso racional de recursos públicos, já neste século, a Rand Corporation11 (uma Think Tank e braço do Departamento de Defesa dos Estados Unidos) cria, com inspirações em teorias sociológicas do crime da Escola de Chicago12, como a das Janelas Quebradas e do Etiquetamento Social13, o projeto PredPol, que tem como objetivo a atuação na prevenção de crimes, com uso de Inteligência Artificial na aplicação de patrulhamento.
Mas a partir de quais bancos de informações o Predpol faz suas análises?
Segundo a empresa, a análise é realizada por machine learning e deep learning, em big data, contendo apenas três pontos de coleta de dados, sendo estes o local, a hora e a data de crimes passados.
No entanto, existem vários questionamentos quanto aos objetos de análise, visto que os dados não são públicos. A empresa justifica ressaltando que não pode disponibilizar informações, por questões de segurança pública.
Muitos acreditam que o PredPol, assim como outros softwares em uso pelas Polícias Estado-Unidenses, usa nos seus sistemas outros dados, além de local, hora e data de crime passado, na construção de sua rede de dados, com coletas de informações também pelas redes sociais.
As redes, que atingem escala global, podem ser excelentes campos de análise e interpretação de dados, seja a partir de postagens, compartilhamento de imagens, de geolocalização, e de conversas privadas. Porém, seu uso não é totalmente aceito, visto que a análise pode ultrapassar limites legais, com venda de informações a terceiros.14
Há também presente um uso imoral, visto que muitas vezes são colocadas nos termos de ingresso à rede terminologias confusas, letras pequenas e séries de aceitações implícitas.
No mais, sistemas de Policiamento Preditivo de muitas corporações policiais no Estados Unidos utilizam, para a composição de seu gigante banco de dados, informações coletadas por câmeras de vigilância, documentos jurídicos – seja condenações na esfera civil e criminal, quanto indícios de autoria –, informações policiais, como índices de assaltos em regiões específicas e violência provocada por distúrbios e aglomerações populares.15
3.O Bias do PredPol e demais Sistemas de Polícia Preditiva
Segundo a Rand Corporation, o PredPol usa um sistema aproximado do algoritmo que previne terremotos, para estabelecer seu modo de operação preventiva de crimes.17 O uso iniciou-se em 2011, na cidade de Los Angeles, após séries de estudos com intuito de melhoria na segurança pública da cidade.
O software foi no seu lançamento tão bem visto na sua potencialidade de prevenção de crimes que, em 2011, a revista TIME colocou o PredPol como uma das 50 melhores invenções do ano18.
Cabe recordar que a cidade de Los Angeles, onde iniciou-se o uso amplo do Polícia Preditiva com aplicação de software que usa Inteligência Artificial e Big Data, é marcada por ondas de protestos contra o viés discriminatório da polícia.
O maior deu-se em 1992, o popularmente conhecido Battle of Los Angeles, em que, após um júri local ter absolvido policiais brancos que agrediram um negro (mesmo com imagens comprovativas da atividade criminosa), parte da sociedade revoltou-se contra o sistema policial, culminando em um saldo final de prejuízo de mais de 1 bilhão de dólares e 53 mortes, durante os tumultos.
Depois da onda de protesto, que gerou tanto prejuízo econômico e social à cidade, houve profundas reformas da polícia municipal, com demissões de pessoas envolvidas em atos discriminatórios e maior participação de grupos minoritários e regionais na corporação.
Ou seja, a questão do viés discriminatório foi, e é, ponto de contínua atenção dos cidadãos de Los Angeles.
Porém, a matemática Cathy O Neil, autora do livro “Weapons of Math Destruction”, acredita que o uso do software, além de reforçar o modelo de policiamento, ao invés de resolver a questão de segurança pública no aspecto social, cai em erros comuns, de generalização.
Segundo suas palavras:
“Continuamos prendendo negros por coisas pelas quais não prendemos brancos, mas agora já não o dizemos abertamente e disfarçamos de ciência porque o fazemos com o PredPol. Continuamos com o ciclo, porque continuamos prendendo gente de um bairro e os dados nos dizem que precisamos voltar a esse bairro, desta forma a injustiça policial continua.”19
A autora vê certos méritos no uso do PredPol e compreende que, de algum modo, existe a busca nos desenvolvedores do sistema para que não haja realização de um modelo que foque em certos tipos individuais.
No entanto, a matemática acredita que o sistema dificilmente não apresentará, com o uso de inteligência artificial, certos vieses.20 A autora informa que, sem a alteração de modelo balizador de criação, que reiterando é o da Teoria da Tolerância Zero, na prática, o sistema faz com que haja apenas a diminuição de certas atividades criminosas, como tráfico de drogas, podendo potencializar outras, talvez muito mais graves.21
Grupos de sérios ativistas em direitos digitais e transparência civil, formados por experientes hackers, como Lucy Parsons Labs e o Human Right Data Analysis Group, dizem que há sim a presença de viés discriminatório na atividade do PredPol.
No embate desta posição, o site oficial do PredPol, além de desclassificar os estudos dos grupos ativistas, chama de mito teorias de deslocamento social, entrando em um campo de discussão não mais meramente tecnológico, mas sim de sociologia criminal.
Sob a perspectiva da Teoria de Tolerância Zero, pesquisadores contratados pela PredPol afirmaram que existem medidas quantitativas que mostram que esforços de prevenção de crimes não são suscetíveis de ter efeitos de deslocamento para áreas próximas e que o crime não “dá voltas na esquina”22.
4.E quando o software classifica os indivíduos?
Uma questão particular na aplicação de uso de polícia preditiva se apresenta com o algoritmo SSL, o Strategic Subjet Lists, utilizado em algumas cidades, como Chicago.
Com o uso de diversos softwares, com aplicação de tecnologia avançada, a cidade viu diminuição de um tipo de violência. E muito desta diminuição de índices refere-se, segundo dados oficiais da cidade, ao uso de dados aplicados em SSL.
O SSL basicamente ranqueia indivíduos, em pontuações de 0 a 500, entre maior conexão ou não, ao “crime”23.
Pouquíssimas informações são livres, de acordo com o uso da lista, mas se sabe que há pontuações àqueles que têm filiações a gangues ou grupos particulares, aos que já foram presos ou que têm dados de uso de armas, de drogas ou participações em atos contrários ao Governo.24
A polícia diz que não usa a lista para prender pessoas, mas documentos oficiais demonstram o contrário.
Mesmo com a pouca divulgação de dados, ativistas pelos direitos de rede descobriram que em Chicago mais de 50% das pessoas negras, em idade de 20 a 29 anos, estão na lista, e que apenas 2% de pessoas brancas estão na mesma.25
A questão hoje toma tons centrais no debate sobre segurança pública nos Estados Unidos. Ao mesmo tempo em que há um crescimento do uso, sendo que inúmeras forças policiais do país já utilizam sistemas de aplicação de Software para polícia preditiva, alguns departamentos, como o de Oakland, e de outras cidades californianas, pararam de utilizar o sistema, com preocupações de que seu uso pudesse levar a discriminações raciais.26
5.“O rompimento de barreira” de softwares de Polícia Preditiva dos Estados Unidos e a sedução brasileira
Mesmo com diversas críticas de ativistas, estudiosos, além de uma série de processos judiciais e cancelamentos de vinculação, os sistemas preditivos por meio de Inteligência Artificial e Big Data seduziram departamentos de polícias estrangeiras. Com algumas diferenças, a polícia do Reino Unido usa Inteligência Artificial, em um sistema aproximado ao do PredPol, para realizar patrulhamentos, com o intuito de prevenir crimes. Modelo aproximado também é utilizado pelo Governo de Cingapura.
Políticos brasileiros, vendo as supostas melhorias em segurança pública do modelo inicialmente aplicado nos Estados Unidos, passaram a discutir sua aplicação no Brasil.
A corporação policial que mais chegou perto foi a paulista, com a implantação do sistema de monitoramento inteligente chamado Detecta. Bandeira de eleição estadual de Geraldo Alckmin, o Estado de São Paulo tentou implantar o sistema de policiamento preditivo por meio de um software.
O sistema implantado pelo Detecta monitoraria indivíduos, com detecção de rostos, e placas de carros.27 Contudo, em 2017, após uma série de testes e poucas aplicações, teve seu uso descontinuado, salvo na detecção de veículos em situações irregulares.
O Tribunal de Contas Paulista, ao fiscalizar as contas públicas e verificar a situação do sistema, chegou à conclusão de que o sistema não era capaz de analisar vídeos analíticos e continha uma série de problemas técnicos.
No entanto, o uso de polícia preditiva, com aplicação de Big Data, tem chamado a atenção de políticos e corporações. Técnicas de prevenção situacional, que é a matriz de aplicação destes modelos, como o PredPol, já existem de certa forma no Brasil, em versões de teste, dentro do próprio modelo do Detecta, com experiência em outras cidades paulistanas, como em outros estados, tal como na Bahia, e nas intervenções da cidade do Rio de Janeiro, nas Unidades de Polícia Pacificadora (UPPs).28
As críticas que recaem aos sistemas de prevenção situacional no Brasil são próximas das trazidas por críticos dos modelos implantados por softwares de Inteligência Artificial nos Estados Unidos.
Incidem principalmente sobre o fato de que não há com a prevenção situacional um verdadeiro combate das raízes sociais da criminalidade, não constituindo assim instrumento de prevenção primária, sendo apenas algo paliativo, que modifica pontualmente determinado espaço, e transfere o crime para outros locais. Dizem os críticos que a prevenção situacional não evita crime, apenas obstaculiza, adia ou desloca a sua prática.
Em seu plano de Governo, o atual Governador do Estado do Rio de Janeiro critica as UPPs, chamando de grande fracasso, por não virem acompanhadas de demais políticas públicas. O Governador trouxe como promessa de campanha que irá remodelar o projeto de UPPs, com um reaparelhamento “do que for mais moderno de tecnologia de investigação, com central de inteligência dentro da polícia civil” para uma realidade de maior combate à criminalidade, dizendo que chegará a autorizar o abate de criminosos que portarem armas de uso exclusivo das forças armadas.
Na agenda do plano de Governo do Presidente eleito, também há indicações de uso de tecnologia, inteligência e capacidade investigativa, com uma retaguarda jurídica que estabeleça, direito de excludente de ilicitude ao policial em ação.
Por fim, apenas para mapearmos três candidaturas eleitas, em São Paulo, o candidato eleito ao Governo do Estado trouxe em seu plano que irá aumentar o combate à violência ostensiva com modernização e aplicação da coleta de bancos de dados. O que está ocorrendo, na prática.
Tanto em nível Federal quanto em nível Estadual, o Brasil tenciona a se modelar em um plano que aceitará o policiamento preditivo com o uso de big data, nos moldes utilizados pela polícia dos Estados Unidos, pautados em uma realidade de law and order.
É suposto, e é realidade em algumas cidades como Salvador, que, com a aproximação dos países, o Brasil busque cada vez mais técnicas de apoio tecnológico dos Estados Unidos, aplicando também na seara jurídica suas teses.
Conclusão
O uso de algoritmos aplicados para a interpretação de big data, em Segurança Pública, fez com que corporações policiais nos Estados Unidos economizassem custos e fossem mais atuantes na prevenção de certos crimes. Tal uso da tecnologia seduziu uma série de Governos Estrangeiros, que passaram a aplicar modelos próximos.
Quando se faz o uso em aplicação policial da teoria das janelas quebradas, que é em conjunto com a da labelling approach um dos grandes nortes filosóficos de modelos de uso de policiamento preditivo com uso de softwares, tal como o PredPol, há um maior combate de crimes menores como o tráfico de drogas em pequenas quantidades, prostituição e depredação de patrimônio público. Segundo os apoiadores de teorias que podem ser classificadas como de Law and Order, o forte combate aos crimes menores tende a trazer uma diminuição dos crimes maiores.
Na prática, contudo, estudos demonstram que a teoria tem no máximo efeitos modestos de diminuição de criminalidade, sendo que potencializa a criminalização de certos estratos sociais. É, em regra, uma teoria simplista, de solução fácil a uma realidade extremamente complexa.
Pairam dúvidas, com a aplicação da teoria ao policiamento preditivo por intermédio de software, sobre a capacidade de fomento do viés discriminatório. Há uma ampla dificuldade em ensinar ao sistema como não estabelecer características, por meio de uma aplicação indutiva, de não discriminar certos agentes.
A situação piora quando o sistema, além de apenas analisar crimes pregressos, ou de regiões de “sociedade marginalizada”29, passa a estabelecer uma relação com uso de dados presentes em redes sociais, ou de qualquer outra forma, gerados pelo indivíduo.
Com isso não nos colocamos contrários ao uso de Big Data para melhorar as questões de segurança pública. Bem utilizado, tende a ser uma ferramenta incrível de prevenção de crimes.
Todavia, sua aplicação tem que ter uma baliza filosófica concreta, que não hipercriminalize certos indivíduos, principalmente aqueles que, por uma série de motivos, vivem à margem da sociedade.
A barreira do viés discriminatório, principalmente em questões relacionadas aos preconceitos raciais, tem de estar muito bem estabelecida nos sistemas. E, em nossa opinião, tem de se dar atenção e preferência à aplicação de big data em uso de combate e prevenção de macrocrimes, com análises comparativas de Imposto de Renda, na busca de sonegações fiscais de grande monta, ou de conexões entre pequenos traficantes de drogas e de armas com políticos e grandes empresários.
Ademais, tem de se dar atenção àqueles em que há a imposição de violência, como roubos, crimes sexuais, homicídios e latrocínios. O uso de análise de big data também pode apresentar excelentes avanços nos crimes de trânsito, principalmente em casos de morte ou reincidência de atitudes que põem em risco a coletividade.
As falhas que geram viés discriminatório do algoritmo estão presentes desde o desenvolvimento. É extremamente importante que instituições previamente analisem, de forma técnica e isenta, o perfil de aplicação dos softwares, e a quem se destina. De nenhuma forma os algoritmos podem sugerir que certas pessoas têm tendência a serem criminosos apenas pelo seu endereço e nem classificar negros como potenciais criminosos.
Em realidade, software nenhum pode classificar pessoas pela sua potencialidade de cometer um crime e nem predicar que, devido a endereço ou questão social e de cor, estão mais predispostos a cometer atividade criminosa. Tal visão é atrasada, preconceituosa, racista e eugenista.
Bibliografia
ANDRADE, Vera Regina de. Pelas Mãos da Criminologia: o Controle da Pena Além da Desilusão. Rio de Janeiro: Editora Revan, 2012.
BISSIGO, Diego Nones. A Eloquente e Irrecusável Linguagem dos Algoritmos: Estatística no Brasil Imperial de 1872. Tese de Mestrado do Programa de Pós-Graduação em História da Universidade Federal de Santa Catarina, Orientação da Professora Beatriz Galloti Mamigonian. 2014. Disponível em: [repositorio.ufsc.br/bitstream/handle/123456789/123277/326693.pdf]. Acesso em: 30.10.2018.
DUC, Hang Do Thi. Data-Selfie Analyse on Google Chrome. Disponível em: [22-8miles.com/data-selfie/]. Acesso em 30.10.2018.
FRIEND, Zach. Predictive Policing Using Technology to Reduce Crime. Federal Bureau of Investigation – Law Enforcement Bulletin. Disponível em: [leb.fbi.gov/articles/featured-articles/predictive-policing-using-technology-to-reduce-crime]. Acesso em: 30.10.2010.
GROSSMAN, Lev e outros. The 50 Best Inventions of 2011.TIME. Disponível em: [content.time.com/time/magazine/article/0,9171,2099708-13,00.html]. Acesso em: 30.10.2010.
KUNICHOFF, Yana; SIER, Patrick. The Contradictions of Chicago Police’s Secretive List. Chicago Mag. Disponível em: [www.chicagomag.com/city-life/August-2017/Chicago-Police-Strategic-Subject-List/]. Acesso em: 30.10.2018.
LUM, Kristiam. Predictive Policing Reinforces Police Bias. Human Rights Data Analysis Group. Disponível em: [hrdag.org/2016/10/10/predictive-policing-reinforces-police-bias/]. Acesso em: 30.10.2010.
NEIL, Cath O. Weapons of Math Destruction. How Big Data Increases Inequality And Theatens Democracy. New York: Editora Crown, 2016.
PEIRÓ, Patrícia. Assim os Algoritmos perpetuam a Desigualdade Social. El Pais. Disponível em: [brasil.elpais.com/brasil/2018/04/12/tecnologia/1523546166_758362.html]. Acesso em: 30.10.2010.
PEREZ, Sarah; WHITTAKER, Zach. Everything you neeed to Know about Facebook Data Breach.Techcrunch. Disponível em: [techcrunch.com/2018/09/28/everything-you-need-to-know-about-facebooks-data-breach-affecting-50m-users/]. Acesso em: 30.10.2010.
PREDPOL, Aim Samuels. The Myth of Crime Displacement. Disponível em: [www.predpol.com/crime-displacement-predpol/]. Acesso em: 30.10.2010.
THOMAS, Emily Thomas. Why Oakland Police Turned Down Predictive Policing.Vice. Disponível em: [motherboard.vice.com/en_us/article/ezp8zp/minority-retort-why-oakland-police-turned-down-predictive-policing]. Acesso em: 30.10.2010.
1 A deep web é, segundo nossa posição, uma proposição inventada, principalmente por grupos de mídia e por órgãos estatais, que não possui base teórica ou científica e é um conceito que presta um deserviço “demonizando” o uso anônimo no ambiente da internet e o correlacionando, também, ao conceito inventado de dark web.Deep Web, para estes grupos, é visto como o conjunto de redes que fazem parte da internet, mas que não é indexado pelos mecanismos de busca, fazendo com que seus conteúdos sejam ocultos para boa parte do público, e que seriam basicamente utilizados para comercialização de produtos e serviços ilegais. 2 No entanto há também outra parcela social, que simplesmente não percebe a presença da análise de dados nas suas realidades, ou não vê nisso possibilidades de interferência em sua vida. 3 Big data é um conceito. São os grandes dados de grande volume, de alta velocidade e de ampla variedade que podem estar ou não estruturados. 4 Há interessante artigo de Alex P. Miller, publicado na revista digital da Harvard Business Review, intitulado “Want less-biassed Decisions? Use Algorithms”, trazendo contrapontos à literatura acadêmica que trata do viés discriminatório dos algoritmos. 5 No Brasil, o direito de privacidade, além de ser componente de criação de todo o texto constitucional, está presente de forma expressa no artigo 5º da Constituição Federal. No tocante ao direito de personalidade, o artigo 21 do Código Civil (LGL\2002\400) nos garante. 6 Um interessante estudo sobre a aplicação dos algoritmos e o uso de viés para locupletar uma realidade pode ser assimilado na excelente dissertação de Diego Nones Bissigo, apresentada no Departamento de História da Universidade Federal de Santa Catarina, intitulada “A eloquente e irrecusável linguagem dos Algoritmos: Estatística no Brasil Imperial de 1872”. 7 Preferimos empregar sempre termos, mesmo técnicos, na língua do texto. Contudo, a Ciência da Computação utiliza preferencialmente algumas terminologias em Inglês. Deste modo, faremos uso no seu modo original. A seguir listamos alguns termos usados neste artigo e sua tradução (livre) em português: Machine Learning = Aprendizado de Máquina, Deep Learning = Aprendizado profundo, Deep Web = Web profunda, IOT (Internet of Things = Internet das Coisas, Big Data = Gigantes dados, Upload = Envio de Dados. 8 IOTs refere-se à Internet das Coisas. São objetos, domésticos, em conexão constante com a web. 9 Hang Do Thi Duc, criadora do projeto Data Selfie, em vídeos e aulas, demonstra que, até mesmo quando apenas a tela é rolada e se consome informação, está se cedendo dados. Para entender a pesquisa da coder, feita na análise do brownser Google Chrome: [22-8miles.com/data-selfie/]. 10 Paul Johann Anselm von Feuerbach foi um dos precursores da ciência do Direito Penal. É dele a teoria da legalidade penal e a consagração dos princípios nulla poena sin lege, nulla poena sine crimine, nullum crimen sine poena legali. Por mais que a consagração do princípio em Feuerbach buscasse mais garantir a efetividade de coação psicológica (teoria da dissuasão psicológica) do que propriamente “defender” os direitos individuais (tese a partir de teorias garantistas, principalmente pós Segunda Guerra Mundial), sua formulação é extremamente importante para um início de discussão sobre formulações de conceitos em respeito aos direitos humanos. Construção de pensamento a partir do interessante trabalho da história das ideias jurídicas em Rafael Mafei Rabelo Queiroz pode ser encontrada na tese de doutoramento intitulada: “O Direito a Ações Imorais: Paul Johann Anselm Von Feurbach e a Construção do moderno Direito Penal”. 11 A Rand Corporation, fundada em 1948, tem como principal acionista o Departamento de Defesa dos Estados Unidos. 12 A Escola de Chicago é uma escola de pensamento que se opõe ao Keynesianismo, é a favor do monetarismo e defende o livre mercado. Seus principais influenciadores são os economistas Milton Friedman e George Stigler. As teorias da Escola de Chicago influenciaram diversos campos, como o da sociologia, arquitetura, macroeconomia e criminologia, e embasam algumas administrações, desde democráticas, como as de Margaret Thatcher e Ronald Reagan, quanto ditatoriais, como a de Augusto Pinochet. 13 Quanto ao Labelling Approach (teoria do Etiquetamento Social), lembramos as lições da Vera Regina de Andrade. Segundo a professora, as críticas à teoria têm de recair principalmente, pois há nela uma ênfase a uma construção seletiva de criminalidade, em um status negativo do criminoso. Melhores assimilações sobre sua posição podem ser lidas em ANDRADE, Vera Regina Pereira de. Pelas Mãos da Criminologia – O controle Pena para além da Desilusão. Rio de Janeiro: Editora Revan, 2012. 14 Há gigantesco material na internet referente a vazamento de dados de empresas que administram redes sociais e o uso por Governos. Destacamos artigos escritos para o site TechCrunch como: Everthing you need to Know about Facebook Data breach affecting 50M users. Disponível em: [techcrunch.com/2018/09/28/everything-you-need-to-know-about-facebooks-data-breach-affecting-50m-users/]. 15 O site do PredPol informa que apenas predica crimes com: (1)Quando e (2)Como, sem analisar quem cometerá o crime. Diz que não utiliza dados pessoais e informações individuais, e que não ultrapassa limites de privacidade individual. 16 No Brasil é mais comum encontrarmos textos, tanto na mídia quanto acadêmicos (estes em pouquíssimo número), tratando a discriminação advinda de processos algorítmicos provocados por interpretação de big data como Discriminação Algorítmica. Contudo, nos Estados Unidos o termo correlacionado é apenas de viés, ou seja de bias (termo em inglês para viés). A mesma forma é usada em países de língua inglesa, italiana (sem a tradução, utilizando bias) e espanhola (no espanhol há a tradução de bias para sesgo en los algoritmos). 17 Para maiores compreensões da forma de aplicação do PredPol, segundo a polícia, cabe a leitura do artigo publicado por Zach Friend, no Law Enforcement Bolettin do Federal Burau of Investigation – FBI, em 2013: “Using an earthquake aftershock algorithm, the system employs verified crime data to predict future offenses in 500-square-foot locations. The program uses historical information combined with current data to determine patterns. The system needs between 1,200 and 2,000 data points, including burglaries, batteries, assaults, or other crimes, for the most accuracy. Santa Cruz, averaging between 400 and 600 burglaries per year, used 5 years of data”. Disponívelem: [leb.fbi.gov/articles/featured-articles/predictive-policing-using-technology-to-reduce-crime]. 18 Lista com as 50 maiores invenções de 2011 da Revista Time disponível em: [content.time.com/time/magazine/article/0,9171,2099708-13,00.html]. 19 Seu ponto de análise pode ser percebido na entrevista dada à jornalista Patricia Peiró do El País, intitulada “Assim os Algoritmos perpetuam a desigualdade social”. A entrevista na sua integra pode ser lida em: [brasil.elpais.com/brasil/2018/04/12/tecnologia/1523546166_758362.html]. 20 Tal entendimento pode ser retirado do livro de Cathy O Neil, “Weapons of Math Destruction”. Vejamos trecho: “You might think I’m straying a bit from PredPol, mathematics, and WMDs. But each policing approach, from broken windows to zero tolerance, represents a model. Just like my meal planning or the U.S. News Top College ranking, each crime-fighting model calls for certain input data, followed by a series of responses, and each is calibrated to achieve an objective. It’s important to look at policing this way, because these mathematical models now dominate law enforcement. And some of them are WMDs.!” (p. 77). 21 É lógico que existe uma série de questões que merecem reflexões, como fatores sociais contemporâneos, mas é interessante a interpretação que pode ser dada com os índices de criminalidade após a aplicação do PredPol. Com um grande declínio de assalto nos últimos anos, Los Angeles viu um aumento no número de homicídios e crimes sexuais, em parte porque a forma de patrulhamento deslocada a alguns locais tende a colocar como ponto de crise, e que merece atenção, áreas em que há significativo número de assaltos. A área de maior atenção se dá em Central City East, conhecida como Skid Row, sendo uma das áreas com maior consumo de crack dos Estados Unidos e de moradores de rua, criminalizando ainda mais um grave problema social. A cientista de dados Kristian Lum informa em artigo que o uso de machine learning em dados parciais significa previsões que reciclam preconceitos embutidos na prática policial e existentes, obscurecendo problemas com a prática. Segundo a pesquisadora, o policiamento preditivo realizado pelo PredPol torna o policiamento ostensivo, mais injusto do que já é. Vide análise em: [hrdag.org/2016/10/10/predictive-policing-reinforces-police-bias/]. 22 Vide artigo escrito por Aim Samuels para o blog do site oficial de PredPol, intitulado The Myth of Crime Displacement. Disponível em: [www.predpol.com/crime-displacement-predpol/]. 23 As aspas foram colocadas propositalmente visto que até indivíduos que nunca cometeram crimes são ranqueados. A análise é feita sobre pessoas que já cometeram crimes e potenciais criminosos. 24 Karen Sheley, Diretora da American Civil Liberties Union of Illinois, diz sobre a lista que “This is basically government decision-making turned over to an algorithm without any transparency about it”. Interessante matéria sobre o tema pode ser lida em: [www.chicagomag.com/city-life/August-2017/Chicago-Police-Strategic-Subject-List/]. 25 Informações referentes a agosto de 2017. Disponível em: [www.chicagomag.com/city-life/August-2017/Chicago-Police-Strategic-Subject-List/]. 26 Sobre os motivos específicos para Oakland cancelar o uso de PrePol: [motherboard.vice.com/en_us/article/ezp8zp/minority-retort-why-oakland-police-turned-down-predictive-policing]. 27 O sistema inicialmente seria integrado com bancos de dados da Polícia civil e Militar, do Registro Digital de Ocorrência, do Instituto de Identificação, do Sistema operacional da Polícia Militar e do Sistema De fotos criminais e dados do Detran/SP. 28 A tecnologia que o Brasil utiliza nas suas cidades é oriunda de contratos com empresas como a Microsoft (Estados Unidos), Dahua (China) e Huwaii (China). 29 Entende-se sociedade marginalizada a região sem acesso a elementos básicos de cidadania, como segurança pública, educação pública, saúde pública e infraestrutura de saneamento básico.




Comentários