As imagens geradas pelo aplicativo FaceApp, que se propunha a transformar o rosto do usuário em uma versão mais velha de si, foram amplamente compartilhadas ao longo de julho no Brasil e no exterior, aquecendo o debate sobre a aplicação e riscos de tecnologias de reconhecimento facial. Além de simplesmente identificar rostos e transformá-los, por puro entretenimento, ferramentas de reconhecimento facial hoje são capazes de atribuir identidade a estas imagens e cruzá-las com diferentes bases de dados para aplicação em diferentes serviços.
Muitas empresas vêm apostando em biometrias faciais para autenticar seus processos digitais e aprimorar serviços, entre elas Nubank, 99, Loggi, Banco Original, Neon e Gol. “No fim do dia, estamos criando uma nova forma de identificação das pessoas, em que esse registro facial vai se tornar determinante para o acesso a serviços públicos e privados”, afirma Fabro Steibel, diretor executivo do Instituto de Tecnologia e Sociedade do Rio (ITS Rio).
A companhia aérea Gol, por exemplo começou a testar em maio um sistema de embarque por biometria facial em voos no aeroporto internacional do Galeão, no Rio de Janeiro. Para autenticar o embarque pelo sistema, basta que passageiros se posicionem em frente a um totem e façam uma foto, que então é cruzada com dados de viagem e documento do usuário. A empresa estima que o mecanismo reduz em 10% o tempo de embarque dos passageiros.
Já a 99 lançou um recurso para a identificação automática do rosto dos motoristas na hora de se conectarem ao aplicativo. O procedimento de verificação acontece em parceria com o Denatran (Departamento Nacional de Trânsito), que cruza a imagem coletada pela 99 com a foto armazenada no banco de dados do órgão. “A medida visa adicionar camadas de segurança para que, além das análises de documentos que a empresa já executa, outra verificação seja adicionada”, disse a 99, em nota. Ambas as empresas dizem seguir a todas as leis aplicáveis sobre proteção de dados em seus sistemas.
Em âmbito público, estados como Bahia, Rio de Janeiro e São Paulo têm testado ferramentas do tipo para reforçar a segurança urbana. O governo baiano utilizou, por exemplo, um sistema durante o Carnaval de Salvador para mapear os rostos de foragidos em meio à folia. O estado de São Paulo, por sua vez, pretende investir R$ 69 milhões em câmeras embarcadas com essa tecnologia e instalar os equipamentos em algumas linhas de metrô.
Risco à privacidade?
Interfaces de reconhecimento facial, apesar dos benefícios, levantam discussões sobre proteção de dados, privacidade e neutralidade. O aplicativo FaceApp, por exemplo, gerou repercussão por contar com políticas de privacidade vagas e por solicitar aos usuários uma série de permissões de acesso a dados que abriam margem para o uso indevido de suas informações. As implicações éticas também se estendem ao uso impreciso ou discriminatório da tecnologia. O sistema do estado do Rio de Janeiro, por exemplo, recentemente falhou ao confundir uma mulher inocente com uma presa, nas ruas de Copacabana. Em outros casos, sistemas de identificação operaram com discriminação étnica.
“A inteligência artificial embutida nesses sistemas precisa ser ensinada por humanos, o que levanta o risco ético sobre os operadores do sistema, já que pessoas podem ter vieses”, afirma Itali Colline, diretora de operações da aceleradora 500 Startups no Brasil. Nos Estados Unidos, pelo menos três cidades, incluindo São Francisco, baniram o uso de reconhecimento facial para o uso em segurança pública.
Grandes empresas também já começam a reconhecer os problemas relacionados ao uso da tecnologia: pressionada por defensores de direitos civis, a Microsoft retirou do ar no mês passado um banco de dados com dez milhões de imagens, usadas para treinar sistemas de reconhecimento facial mundo afora — e coletadas sem o consentimento das pessoas. Em outra ocasião, acionistas da Amazon tentaram proibir a venda de um sistema desenvolvido pela empresa para agências governamentais.
A Lei Geral de Proteção de Dados (LGPD) deve estimular companhias a estabelecerem políticas claras de ética e compliance, criptografia de dados e consentimento em relação à biometria facial. Além disso, elas precisarão definir quais imagens podem ser caracterizadas como “dados sensíveis”. “Se eu tenho a intenção de usar estas imagens para prender pessoas no metrô, este dado torna-se sensível. Já se uso apenas para cruzar com a foto de um documento que vai ser impressa em uma carteirinha, não é sensível; A sensibilidade depende do grau de exposição da pessoa”, exemplifica.
Fonte: https://www.meioemensagem.com.br
Ilustração: https://aosfatos.org