Reconhecimento facial pode colocar a privacidade em risco

Especialista em Direito alerta para os desafios éticos e legais do uso de dados biométricos e a falta de transparência que ameaça a segurança individual.
Publicado em 08/10/2024 as 09:00

Acervo pesssoal/ Divulgação

O avanço da tecnologia de reconhecimento facial tem levado empresas e governos a implementarem sistemas cada vez mais precisos para identificar indivíduos. Contudo, essa evolução também traz questões éticas, técnicas e legais, principalmente em relação à privacidade, proteção de dados e discriminação.

Segundo o advogado e professor do Programa de Pós-Graduação em Direito da Universidade Tiradentes (Unit), Diogo Calasans, um dos maiores desafios está no consentimento adequado. Frequentemente, as pessoas não compreendem completamente como suas informações faciais serão utilizadas ou distribuídas. "Em alguns casos, o consentimento é praticamente obrigatório, dificultando que o usuário recuse o uso dos dados faciais sem perder acesso a determinados serviços. Esse problema é intensificado pela falta de transparência sobre os limites da utilização dessas informações", ressalta.

A questão da vigilância excessiva também gera preocupação. "O uso de sistemas de reconhecimento facial em locais públicos pode criar um ambiente de monitoramento constante, similar ao descrito na obra '1984' de George Orwell, em que cidadãos são observados continuamente sem justificativa adequada. Esse nível de vigilância compromete a liberdade individual, resultando na sensação de controle total sobre as ações e deslocamentos das pessoas", adverte o professor.

Riscos e medidas de mitigação

Além da segurança dos dados, o viés algorítmico é outro ponto de preocupação. "A má gestão das informações faciais pode colocar cidadãos em risco de fraudes e roubo de identidade. Por serem permanentes, os dados biométricos não podem ser alterados como uma senha comum, o que agrava a situação em caso de vazamento. Pesquisas mostram que os algoritmos de reconhecimento facial podem apresentar falhas mais frequentes ao identificar corretamente pessoas de determinadas etnias, gêneros ou faixas etárias", explica Calasans.

Para minimizar esses riscos, as empresas que utilizam a tecnologia devem seguir as diretrizes da Lei Geral de Proteção de Dados (LGPD), que exige o consentimento claro e informado dos usuários. "A legislação brasileira obriga as empresas a serem transparentes quanto ao uso de dados biométricos e a conceder aos cidadãos o direito de acessar, corrigir ou excluir essas informações. Também é necessário limitar a coleta de dados ao mínimo necessário e adotar medidas de segurança, como criptografia e anonimização", detalha o professor.

Desafios e oportunidades

Ainda assim, o reconhecimento facial enfrenta obstáculos técnicos e éticos. "As empresas enfrentam dificuldades para garantir que os algoritmos utilizados sejam precisos e livres de discriminação, além de terem que proteger os dados sensíveis. O equilíbrio entre inovação tecnológica e a proteção dos direitos individuais é um dos principais desafios", comenta Calasans.

Nesse cenário, o papel da Autoridade Nacional de Proteção de Dados (ANPD) é essencial. A ANPD emite orientações específicas para garantir que o tratamento de dados biométricos siga os princípios de segurança, minimização e transparência. "A fiscalização da ANPD é crucial para evitar abusos, mas o avanço rápido da tecnologia impõe novos desafios. A entidade precisa de recursos suficientes para monitorar as práticas e aplicar sanções quando necessário", destaca.

Conforme a LGPD, o consentimento para uso de dados biométricos deve ser livre, informado e explícito. "Isso significa que as pessoas devem ter plena clareza sobre como suas informações serão tratadas. Se o consentimento não for claro ou adequado, ele perde validade, podendo resultar em sanções à empresa e na interrupção do uso dos dados", explica Calasans.

A legislação brasileira, em conjunto com regulamentações internacionais, busca reduzir os riscos de discriminação e uso indevido dessa tecnologia. "As empresas são obrigadas a realizar avaliações de impacto, identificando e corrigindo possíveis vieses algorítmicos. Uma fiscalização contínua é vital para garantir que a tecnologia não prejudique grupos minoritários ou viole direitos fundamentais", conclui.

Autora: Laís Marques

Fonte: Asscom Unit