fonte: Faperj

A necessidade de monitoramento do número de infectados, das taxas de mortalidade e de ocupação dos hospitais é inevitável para o controle da pandemia e diversas empresas, principalmente de telefonia, passaram a divulgar serviços de localização e comportamento. Se por um lado a possibilidade de monitorar o avanço do coronavírus e o respeito ao isolamento é vista com bons olhos, por outro, acende a discussão sobre como é e será feita a coleta de dados, respeito à privacidade e o destino destes dados.

O diretor do Instituto de Comunicação, Informação e Tecnologia da Fundação Oswaldo Cruz (Icict/Fiocruz), Rodrigo Murtinho, entende que há uma falsa dicotomia entre o monitoramento em relação à saúde e a privacidade, mas é preciso ter cuidado. “É possível monitorar a saúde da população através de registros e cruzamentos de diferentes dados sem necessariamente expor a privacidade dos cidadãos. Boa parte das plataformas e painéis utilizados para sistematizar informações para toma de decisões partem de dados secundários, anonimizados. Mas há situações em que o monitoramento e o tratamento de dados podem levar à violação da privacidade”, explica o Murtinho que realiza pesquisas na área de Políticas Públicas de Comunicação, Saúde e Direitos Humanos.

Murtinho ressalta que no campo da saúde a preocupação com a proteção dos dados e a privacidade das pessoas não é uma novidade. “A Lei Geral de Proteção de Dados reforça ainda mais os princípios que norteiam a atuação dos conselhos de ética em pesquisa, estruturados em torno da Comissão Nacional de Ética em Pesquisa (Conep). Há muito tempo as pesquisas que envolvem seres humanos têm uma regulação específica”, diz. Ele explica que, nesse momento, a Conep está funcionando em regime de tramitação prioritária e tem um prazo de 72 horas para analisar pesquisas relacionadas ao Coronavírus.

Professora do Programa de Pós-Graduação da Universidade Federal do Rio de Janeiro (Eco-UFRJ), Fernanda Glória Bruno, que recebe apoio da FAPERJ para a realização de suas pesquisas por meio do programa Cientista do Nosso Estado da FAPERJ, também enfatiza a necessidade dos estudos e coleta de dados serem de uso exclusivo para políticas de saúde, com finalidades muito claras, tempo determinado e com interdição para qualquer uso discriminatórios. “Dados de saúde são muito sensíveis e podem deixar as pessoas em situações de extrema vulnerabilidade”, pondera. Para ambos os pesquisadores, a aprovação no começo de abril para o segundo adiamento da entrada em vigor da Lei Geral de Proteção de Dados vai dificultar que estes cuidados sejam tomados. Inicialmente prevista para janeiro deste ano, a entrada em vigor foi adiada para agosto e agora para janeiro de 2021.

Legislação

A Lei Geral de Proteção de Dados foi aprovada em 2018 após grande mobilização da sociedade civil e ganhou nova redação em 2019. Para Fernanda, um dos destaques da lei é a necessidade de uma autorização consciente e esclarecida de que seus dados estão sendo utilizados para tais finalidades e por quais empresas. Dados pessoais como origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou à organização de caráter religioso, filosófico ou político, dado referente à saúde ou vida sexual, dado genético ou biométrico são considerados sensíveis pela LGPD e não podem ser divulgados de forma indiscriminada. Também foi aprovada por Câmara dos Deputados e Senado no final de 2019 a Proposta de Emenda Constitucional que inclui o direito à proteção de dados como direito fundamental previsto na Constituição. A proposta ainda precisa de uma nova aprovação em plenário.

Com a nova lei, a rotina de informar o número de Cadastro de Pessoa Física (CPF) para ganhar descontos em medicamentos em uma farmácia, deve passar por um esclarecimento sobre o destino das informações coletadas e o consentimento do cliente tanto para o tratamento como para a transferência destes dados para terceiros. Prática comum, mas ilegal, entre parceiros comerciais. “O compartilhamento desses dados com os planos de saúde é um exemplo clássico de como o uso indevido dos dados pessoais pode afetar negativamente a vida dos cidadãos. Ao projetar a possibilidade de desenvolvimento de doenças graves e precoces, a partir da associação de informações sobre o perfil de consumo de uma pessoa em farmácias com dados sobre a saúde de parentes do mesmo grupo familiar, uma empresa de plano ou seguro de saúde pode discriminar um beneficiário, promovendo aumentos extorsivos para obrigá-lo a buscar outro convênio”, completa Murtinho.

A compra de um número de celular com determinada operadora também é um momento em que consentimos o uso de nossos dados sem expresso consentimento. Dados que agora estão sendo oferecidos para os governos como forma de monitorar o cumprimento do isolamento em diversas cidades. “De certa forma, a pandemia abriu a caixa-preta do monitoramento de dados e deixou um pouco mais evidente para o cidadão comum a existência dessa captação. Agora, temos uma sociedade com muito medo e mobilizada para conter o coronavírus e com uma tendência a aceitar formas de monitoramento mais invasivas. Na realidade, já vivíamos uma certa naturalização do monitoramento de nossos dados e comportamentos em troca de serviços, praticidade, conforto; agora, temos o apelo de estarmos salvando vidas. É preciso ver que há uma armadilha aí, uma falsa escolha, pois não precisamos abrir mão da proteção de nossos dados para garantir a saúde; podemos ter as duas coisas, avalia Bruno.

Para Murtinho, estamos vivendo um período em que os recursos digitais estão sendo utilizados com cada vez mais intensidade, nas diversas atividades, gerando inúmeros bancos de dados com informações pessoais. “A entrada em vigor da LGPD é fundamental, pois não temos formas efetivas de regulação que garantam a proteção dos dados e, desta forma, os agentes públicos e privados ficam mais livres para coletar, tratar, transferir, e promover cruzamentos de dados sem autorização expressa dos verdadeiros donos dessas informações, o cidadão. Mesmo diante das necessidades específicas para o combate à pandemia, existe a chance de se avançar em um monitoramento excessivo. É preciso que a sociedade tenha uma visão crítica sobre essas estratégias e sobre as necessidades efetivas de monitoramento que expõem a privacidade das pessoas”, diz o pesquisador do Icict. Ele lembra que a LGPD foi inspirada na legislação da União Europeia, que já está em vigor.

Impacto pessoal e coletivo

Fernanda também é a atual coordenadora do MediaLab da UFRJ, laboratório que tem se dedicado a investigar os efeitos do bigdata, coleta massiva de dados, em nossa sociedade. Para a pesquisadora, a sociedade civil está em uma relação de desigualdade diante da capacidade de captação de dados das grandes corporações.

Para além da violação da privacidade individual, ela destaca a dimensão social e coletiva do efeito da personalização. De acordo com a pesquisadora, ainda que os dados sejam totalmente anonimizados, os padrões encontrados pelos algoritmos podem influenciar em tomadas de decisões individuais a partir do perfil de gênero, etnia, faixa de renda e gostos expressados nas redes. “Por um lado, a personalização é interessante, seja de anúncios, seja de recomendação, mas ao mesmo tempo não consigo ver nem dimensionar o que não é mostrado para mim por não se encaixar no perfil que estou enquadrada. Os algoritmos definem o tipo de paisagem informacional por onde navegamos e influenciam naquilo que tenho acesso”, comenta.

Se por um lado algumas sugestões de sites, notícias, produtos ou serviços parecem ter sido escolhidos sob medida, Fernanda também alerta para um aspecto nefasto desse excesso de enquadramento. “Pesquisas já mostraram o poder de viés das buscas. Um dos exemplos marcantes é a busca por emprego exibir resultados de menor remuneração para o público feminino”, diz. Outro alerta é para o espectro das opiniões que estamos sujeitos a aceitar com mais facilidade. “No espectro político, a ultrassegmentação dos conteúdos também é problemática e há hipóteses de que ela tenha uma parcela de influência na polarização política que vivemos hoje, por exemplo. Claro que a questão é mais complexa, mas os efeitos coletivos e políticos dessa mediação algorítmica do debate e da paisagem política é fundamental. Pois há uma mediação que é praticamente invisível e é ignorada por um número enorme de pessoas. Se não conheço, não consigo negociar, questionar”, finaliza.