Revista Rua


Maquinaria da privacidade
Machinery of privacy

Marta Mourão Kanashiro, Fernanda Glória Bruno, Rafael de Almeida Evangelista e Rodrigo José Firmino

data os 5 Vs: volume, velocidade, variedade, veracidade, valor. Alguns substituem o termo veracidade por viabilidade, mas ambos dizem respeito a importância da autenticidade de dados e da análise dessa informação para que façam sentido. Apesar das diferenças entre as definições de big data, é consensual que ainda não existe infraestrutura, seja em hardware ou software, para lidar com o volume de dados estruturados e não estruturados produzidos. Mesmo sem essa capacidade, a big data vem sendo defendida como um campo de oportunidades sem precedente para empresas.
Com relação a capacidade de análise e processamento desse volume de informação é consensual que a possibilidade existe, mas é inumana, automatizada. Em menor escala é o que empresas como Amazon, Netflix, Facebook, Google e redes de supermercado já fazem com os dados pessoais de seu usuários, tal como descrito anteriormente. Paralelamente, são constantes as acusações dessas empresas sobre as tentativas de Estados de obterem dados provenientes dessa maquinaria[10].
Com relação a classificação de informações e perfilização, Bruno (2008) aponta que categorias infra-individuais podem ser criadas segundo um modelo top-down, utilizando classes pré-estabelecidas – idade, gênero, profissão – ou segundo um modelo bottom-up, gerando classes a partir da análise dos dados, como “frequentadores do site Y que clicam nos links de tipo X”; “mulheres solteiras que usam pílula anticoncepcional e frequentam sex shops”. Essa categorização é submetida a um tratamento de segunda ordem, cujos métodos mais usuais são a mineração de dados (data mining) e a produção de perfis computacionais (profiling), os quais são complementares. A mineração de dados é uma técnica estatística aplicada que consiste num mecanismo automatizado de processamento de grandes volumes de dados cuja função central é a extração de padrões que gerem conhecimento. Não por acaso, este procedimento é chamado knowledge-discovery in databases. Tais padrões são constituídos a partir de mecanismos de geração de regras, sendo mais comuns as de tipo associativo (similaridade, vizinhança,


[10]É possível citar aqui, casos como do Programa Prisma, programa de vigilância mantido pela Agência Nacional de Segurança dos Estados Unidos, no qual o Estado obteve de empresas como Google, Skype, Facebook, Apple (dentre outras) informações sobre seus usuários. Outro caso recente, ocorrido no Brasil, foi o convênio firmado entre Tribunal Superior Eleitoral (TSE) para entrega de dados pessoais de eleitores brasileiros ao Serasa, empresa brasileira criada em 1968 pela Federação Brasileira de Bancos (Febraban) para análise e coleta de informações para decisões de crédito e apoio a negócios. A empresa faz projeções do Índice Geral de Preços (IGP) além de outros indicadores econômicos para servirem de referência para o setor de serviços, comércio e indústria. O Serasa faz parte, desde 2007, do grupo Experian, multinacional de gestão de informação e de bancos de dados que opera em diversos países e fornece informações para análises de crédito e de consumo. Em ambos os casos, sinaliza-se o embricamento de atores públicos e empresas privadas para o funcionamento da maquinaria de monitoramento de dados pessoais.