fbpx

Blog da Gabriel

Reconhecimento facial: questionar sim, condenar outras tecnologias não

Entenda os limites de seu uso no contexto da segurança pública.

Compartilhe essa postagem:

Por Pedro Costa. 

A acelerada adoção da tecnologia de reconhecimento facial desperta uma série de questionamentos sobre os limites de seu uso no contexto da segurança pública. Em boa parte do País, tanto entidades privadas quanto autoridades públicas têm investido milhões de reais na aquisição e implementação de sistemas supostamente capazes de identificar cidadãos de maneira inequívoca. De forma geral, as iniciativas são justificadas pela promessa de maior assertividade da ação policial, especialmente no que diz respeito à prisão de pessoas que cometem crimes.

A eficácia e, sobretudo, a constitucionalidade dessa tecnologia, porém, têm sido desafiadas nos tribunais brasileiros. O caso mais emblemático envolve a utilização de um sistema de reconhecimento facial em estações do Metrô de São Paulo – empresa controlada pelo Governo do Estado.

Uma coalizão de entidades públicas e privadas, liderada pelas Defensorias Públicas da União e do Estado de São Paulo, ajuizou ação civil pública que pretende a proibição do emprego dessa ferramenta – no caso, ainda em fase de implementação – para qualquer finalidade relacionada à segurança pública. Deferido em primeira instância, o pedido liminar de suspensão do projeto foi mantido pelo Tribunal de Justiça do Estado de São Paulo. Em linhas gerais, as decisões privilegiam a cautela e determinam que apenas o tratamento de dados, isto é, a efetiva utilização do sistema e não a sua instalação, deve ser suspenso até o encerramento da demanda e a avaliação dos riscos envolvidos.

De fato, o caso se apresenta como uma das principais discussões acerca do tema no Brasil. Pontos centrais para a disciplina da proteção de dados, como limites da inaplicabilidade da LGPD no âmbito da segurança pública¹, parâmetros para a implantação de sistemas abrangentes de monitoramento e, em última análise, o próprio conteúdo da recentíssima garantia constitucional insculpida no art. 5º, LXXIX, deverão ser endereçados pelo Judiciário.

Como se sabe, essa não é a única arena institucional em que debates em torno do assunto vêm sendo travados. Hoje, o campo é fértil para contendas político-jurídicas tanto no Brasil – como ilustra o trabalho da Comissão de Juristas responsável por subsidiar a elaboração do Marco Legal da Inteligência Artificial pelo Senado² – quanto na União Europeia, onde a proposta legislativa da Comissão Europeia é alvo de duras críticas por deixar margem para o emprego de reconhecimento facial em contextos específicos para fins de persecução penal. Embora sejam espaços ainda em disputa, não é exagero constatar uma tendência de especialistas no sentido da vedação ao uso da funcionalidade em contextos de vigilância em massa, seja para a prevenção ou a repressão de atividades criminosas.

É digna de nota, porém, a abordagem adotada pelos autores da ação civil pública no caso do Metrô. O principal prisma jurídico pelo qual se impugna o projeto consiste na alegação de ausência de consentimento dos usuários do sistema para o tratamento de seus dados biométricos. De acordo com a narrativa da inicial, por se tratarem de dados pessoais sensíveis, o consentimento seria indispensável por suposta exigência da LGPD – e a sua ausência, por si só, capaz de demonstrar a inexistência de fundamento legal para o projeto conforme concebido.

Nesse ponto, percebe-se uma interpretação particularmente restritiva das hipóteses de tratamento de dados pessoais sensíveis, que contraria o próprio texto legal. Diferentemente do que se pode supor, o consentimento não tem prioridade sobre as demais justificativas legais elencadas pelo art. 11 da LGPD para viabilizar o tratamento dessa espécie de informações. Naturalmente, essa constatação não afasta o ônus do responsável de demonstrar a existência, no caso concreto, de uma ou mais bases legais aptas a fundamentar sua atividade, além de adotar as medidas técnicas e organizacionais de proteção compatíveis com o grau de risco que se identifica.

A leitura apressada e, no limite, contra legem, da legislação vigente veiculada na inicial parece originar-se na percepção dos autores de que, dados os elevados riscos gerados pelo sistema contratado pelo Metrô, as condições para o tratamento de dados sensíveis deveriam ser preenchidas de maneira cumulativa, e não alternativa. Não por acaso, porém, o legislador adotou uma solução diversa.

A pretensa necessidade de consentimento inviabilizaria, por exemplo, qualquer tipo de monitoramento de espaços públicos ou privados, por decorrência lógica do próprio modelo. A despeito de críticas a aspectos de implementação prática, a relevância de sistemas de vigilância para fins de segurança pública e privada é socialmente reconhecida e sua completa proibição está fora de cogitação até mesmo nas jurisdições com visões mais rigorosas sobre privacidade. Levada às últimas consequências, a tese radical sobre a imprescindibilidade do consentimento condenaria agentes públicos e privados na área de segurança ao uso de ferramentas analógicas para combater ilícitos perpetrados com o apoio cada vez mais sofisticado de instrumentos digitais.

A nosso ver, uma interpretação constitucionalmente adequada da legislação vigente deve privilegiar processos e medidas que permitam o uso de tecnologias no contexto de investigação e repressão criminal de forma condizente com as garantias constitucionais de privacidade e proteção de dados. No entanto, isso não necessariamente significa validar a aplicação de reconhecimento facial em sistemas de vigilância em massa. Evidências empíricas demonstram a imaturidade da tecnologia para uso em ambientes públicos, dadas as altas taxas de erro, a fragilidade dos bancos de dados utilizados para comparação de imagens – inclusive com resultados claramente discriminatórios em relação a determinados grupos sociais³ – e a alta variabilidade de contextos sociais que os algoritmos ainda são incapazes de avaliar com precisão.

A aplicação de outras tecnologias, no entanto, pode ser aliada das forças de segurança e ainda garantir o mínimo de interferência sobre os direitos fundamentais dos cidadãos. Um exemplo concreto é o emprego de ferramentas de visão computacional com foco em elementos que não identificam a priori as pessoas afetadas – por exemplo, leitura de placas de carro ou detecção de objetos como armas de fogo –, sempre complementado por uma camada de revisão humana efetiva dos resultados.

Nesse sentido, nota-se que há saídas técnicas hoje disponíveis para solucionar a controvérsia posta diante do Judiciário. Do mesmo modo, os preceitos constitucionais e a LGPD oferecem possibilidades de equilíbrio dos interesses em jogo que não comprometem o delicado arranjo elaborado pelo legislador e que se coloca em xeque no caso em discussão. Entre os parâmetros de razoabilidade e eficiência, cabe ao debate público construir os caminhos para a realidade socialmente desejável da tecnologia aplicada à segurança pública, sem a ilusão de encontrar uma panaceia ou bloquear a chegada do futuro inevitável que se vislumbra adiante.

Pedro Costa é advogado na Gabriel, especialista em Direito Digital, mestre em Direito Público pela Universidade do Estado do Rio de Janeiro.

*Esse texto foi publicado originalmente no blog do Fausto Macedo do Estadão em 04 de julho de 2022.

Compartilhe essa postagem:

Presenciou um crime dentro da Área de Proteção da Gabriel?


Ligue ou mande um WhatsApp para 0800 GAB-RIEL (0800 422-7435).

Nossa Central 24h está sempre disponível para te ajudar. 

Curtiu esse conteúdo? Veja também esses posts!

Seja um protegido da Gabriel.

Leve uma Central 24h no
bolso e ande com proteção
onde a Gabriel estiver.