O Serviço de Proteção ao Crédito (SPC) anunciou a oferta
de uma tecnologia de reconhecimento facial para comerciantes. Lojistas
poderão instalar o sistema, que vai registrar traços faciais e validar a
identidade do comprador. Os dados serão armazenados no banco de dados
do SPC, junto com outras informações sobre a pessoa.
Além da confirmação da identidade, a tecnologia permitirá ao dono do
estabelecimento melhorar a consulta às informações do pagador, incluindo
a chamada “nota de crédito” (índice de probabilidade de quitação
adequada a partir do histórico de crédito da pessoa). Esse tipo de
análise deverá ser potencializada caso a lei do cadastro positivo (que
torna o compartilhamento de dados de crédito obrigatório, sem
necessidade de consentimento) seja aprovada no Congresso.
Em comunicado, o SPC justificou a medida argumentando que a solução
protege o lojista ao mitigar perdas e o consumidor ao evitar a
possibilidade de obtenção de vantagem com roubo de informações pessoais,
como número de cartão de crédito. A adoção desse tipo de solução
técnica é um exemplo de como os mecanismos de reconhecimento e detecção
facial estão sendo disseminados no Brasil e no mundo.
À Agência Brasil, o SPC Brasil esclareceu que tem
acordo formal com seus associados que se responsabilizam em obter
autorização dos consumidores para coletar suas imagens, por meio de
contrato de concessão de crédito.
Em abril deste ano, a empresa responsável pela concessão da linha 4
do metrô da cidade de São Paulo, Via Quatro, instalou no transporte
público um sistema que detecta as reações de quem visualiza anúncios em
telões nas estações e nos vagões. O objetivo, segundo a empresa, é a
obtenção de respostas para direcionar melhor as mensagens veiculadas nos
painéis.
De acordo com a assessoria da concessionária, o sistema trabalha com
detecção facial, e não reconhecimento facial. O primeiro mapeia reações a
partir da leitura das imagens de rostos, enquanto o segundo identifica
se a câmera está filmando determinada pessoa. A assessoria acrescentou à
Agência Brasil que o sistema não permite a possibilidade de armazenamento ou gravação de imagens.
Popularização
O uso de tecnologias de reconhecimento facial vem se popularizando no
Brasil e no mundo. Esse processo é acelerado pela criação de aplicações
variadas para o recurso. Além da diversificação, o avanço nas técnicas
de inteligência artificial tem aumentado a precisão tanto da capacidade
de reconhecimento de pessoas quanto do mapeamento de diferentes
expressões.
Outro fator de difusão é o barateamento desses sistemas. Um exemplo é
a plataforma SAFR – sigla, em inglês, para “Reconhecimento Facial
Seguro e Preciso” - lançada pela empresa RealNetworks neste mês. O
sistema, disponível gratuitamente nos Estados Unidos e no Canadá,
oferece ferramentas baseadas em inteligência artificial de
reconhecimento facial de pessoas em tempo real para escolas e outros
ambientes. Ela está disponível para download gratuito a escolas dos
Estados Unidos e do Canadá.
Segundo a companhia, a ferramenta consegue monitorar milhões de
rostos com 99,8% de precisão. No material promocional, o produto é
apresentado como uma solução para vigiar e combater ameaças internas e
externas, como a presença de pessoas não matriculadas. Mais do que
apenas reconhecimento de pessoas, o sistema também identifica emoções e
reações por meio das expressões monitoradas. Os responsáveis pela
plataforma afirmam que querem tornar as escolas um ambiente mais seguro,
especialmente frente ao cenário de episódios recorrentes de ataques
armados em instituições de ensino.
Na China uma ferramenta chamada SenseVideo passou a ser vendida no
ano passado com funcionalidades de reconhecimento de faces e de objetos.
Mas a iniciativa mais polêmica tem sido o uso de câmeras para monitorar
atos e movimentações de cidadãos com o intuito de estabelecer “notas
sociais” para cada pessoa, que podem ser usada para finalidades
diversas, inclusive diferenciar acesso a serviços ou até mesmo gerar
sanções.
Na Rússia, o aplicativo FindFace também foi alvo de questionamentos
no ano passado ao permitir a localização de pessoas a partir do perfil
delas em uma rede social popular no país (Vkontakte). Ele incorporou a
capacidade de mapear emoções e reações a partir da leitura dos traços de
rostos. A capacidade de monitoramento levantou receios acerca das
possibilidades de uso deste tipo de solução durante a Copa do Mundo
deste ano, embora não tenha havido confirmações específicas nesse
sentido.
Preocupações
Na mesma medida em que crescem como alternativas de monitoramento, as
tecnologias de reconhecimento e detecção facial passam a despertar
preocupações de organizações da sociedade civil, acadêmicos, autoridades
e até mesmo de integrantes da própria indústria de tecnologia.
Na semana passada, o presidente da Microsoft, Brad Smith, divulgou
comunicado em que defendeu a regulação pública do tema e medidas de
responsabilidade por parte das empresas. Segundo ele, a evolução dessa
tecnologia e a adoção em larga escala por empresas e governo acendem um
sinal de alerta.
“As tecnologias de reconhecimento facial levantam questões que vão no
coração da proteção de direitos humanos fundamentais como privacidade e
liberdade de expressão”, destacou Smith.
Essas ferramentas poderiam ser usadas, por exemplo, para monitorar
adversários políticos em um protesto. Em razão desses riscos, o
executivo defendeu que o governo inicie um processo de regulação apoiado
por uma comissão de especialistas no tema.
O discurso vem relacionado também a uma preocupação com a imagem da
empresa. A Microsoft foi questionada no início do ano por um suposto
contrato com o Serviço de Imigração dos EUA para monitoramento de
pessoas entrando ilegalmente no país. A companhia desmentiu, afirmando
que mantém um contrato, mas com sistemas para mensagens e gestão de
outras atividades.
A organização sem fins lucrativos estadunidense Eletronic Frontier
Foundation (EFF) publicou relatório em fevereiro deste ano em que aponta
a adoção crescente dessas ferramentas, especialmente pelo Estado, por
alegadas razões de segurança. Analisando o caso dos EUA, a organização
aponta riscos à privacidade dos cidadãos.
“Sem limites em questão, poderia ser relativamente fácil para o
governo e companhias privadas construir bases de dados de imagens da
vasta maioria das pessoas e usar essas bases de dados para identificar e
rastrear pessoas em tempo real a medida que elas se movem de lugar a
lugar em seu cotidiano”, disse a entidade no documento.
Na avaliação do pesquisador do Laboratório de Humanidades Digitais do
Instituto Brasileiro de Informação em Ciência e Tecnologia, João Carlos
Caribé, o tema é complexo, pois por trás de possíveis benefícios há
riscos da adoção desse tipo de recurso.
“Pode ser ótimo para segurança pública na busca por pessoas
desaparecidas e criminosos foragidos, ou ainda para a identificação de
criminosos em flagrante ilícito, mas é preciso transparência e prestação
de contas neste processo, para não se tornar uma ferramenta de controle
e perseguição”, alertou.
Violação de privacidade
Na avaliação do coordenador da área de direitos digitais do Instituto
de Defesa do Consumidor (Idec), Rafael Zanatta, os dois exemplos
brasileiros violam a legislação.
No caso da Via 4, as ferramentas de detecção facial violam o Código
de Defesa do Consumidor pelo fato de o sistema instituir uma prática
abusiva e impor o monitoramento à pessoa, que não tem compreensão sobre
como esta coleta de dados é feita. Elas também ferem o Código de
Usuários de Serviços Públicos ao promover uma espécie de “pesquisa de
opinião forçada” sem relação com o serviço prestado, o transporte
público.
No caso da iniciativa do Serviço de Proteção ao Crédito (SPC),
acrescenta Zanatta, também há ilegalidade. “Há coleta da informação
sensível, há uma atribuição de um ID único coletado sem consentimento,
de forma abusiva, sem transparência. O Supremo Tribunal Federal diz que
coleta de imagem sem consentimento só pode ocorrer quando não tem
finalidade lucrativa, ou a pessoa não é o elemento central da coleta de
imagem e, neste caso, é uso de imagem de pessoas para fim comercial”,
analisa.
Um dos alvos tanto de preocupação quanto de questionamentos judiciais
é o Facebook. A plataforma começou a adotar o reconhecimento facial no
ano passado. Diferentemente da ferramenta de marcação de pessoas em
fotos, o novo recurso passou a identificar o usuário em qualquer imagem e
a alertá-lo quando uma foto era publicada ou compartilhada.
“Nós queremos que as pessoas se sintam confortáveis ao postar uma
foto de si próprias no Facebook. Estamos fazendo isso para prevenir que
pessoas se passem por outras”, explicou o diretor de Machine Learning da
empresa, Joaquim Candela, em um comunicado divulgado em dezembro.
Contudo, a iniciativa foi questionada tanto publicamente quanto na
Justiça em diferentes locais. A organização de promoção da privacidade
estadunidense EPIC apresentou em abril uma reclamação junto ao órgão de
concorrência dos EUA (FTC, na sigla em inglês). Segundo a entidade, “o
escaneamento de imagens faciais sem consentimento afirmativo e expresso é
ilegal e deve ser proibido”. A plataforma também é objeto de outro
processo, ajuizado por cidadãos do estado de Illinois, que pode resultar
em multas de bilhões de dólares.
A ferramenta do Facebook passou a ser questionada também na Europa,
que ganhou uma nova legislação de proteção de dados em maio deste ano. A
Regulação Geral (GDPR, na sigla em inglês) coloca como requisito para a
coleta de um dado o consentimento, que deve ser obtido de formas
específicas não respeitadas pelo sistema da plataforma.
Discriminação
Outra preocupação com os sistemas de reconhecimento e detecção facial
envolve as falhas na identificação de pessoas, especialmente na
precisão diferente para distintos grupos étnicos e raciais.
Em fevereiro deste ano, dois pesquisadores do renomado Instituto de
Tecnologia de Massachussets (MIT, na sigla em inglês) e da Universidade
de Stanford, Joy Buolamwini e Timnit Gebru, testaram sistemas e
constaram que as margens de erro eram bastante diferentes de acordo com a
cor da pele: 0,8% no caso de homens brancos e de 20% a 34% no caso de
mulheres negras.
Os pesquisadores também identificaram que as bases de dados
utilizadas para “treinar” determinados sistemas eram majoritariamente de
cor branca e de homens. O artigo coloca a preocupação de como essas
tecnologias são construídas e de que maneira esses vieses podem ter
impactos problemáticos, como na identificação de suspeitos de crimes.
Debate público
Para o professor de direito e tecnologia da Fundação Getulio Vargas
(FGV) Eduardo Magrani, há necessidade de um debate público antes da
introdução dessas tecnologias que discuta a relação desses recursos com o
modelo de sociedade que se deseja.
“Quando acontece este tipo de discussão, as tecnologias já estão em
vias de ser implementadas sem que as pessoas debatam se querem viver uma
sociedade de vigilantismo constante, tendo seu rosto identificado
constantemente por algoritmos que podem errar”, avaliou.
Na avaliação do professor, um elemento fundamental do debate é a
garantia de proteção na legislação, que existe de forma geral no caso
brasileiro, mas que podem ter um grande avanço com a Lei de Proteção de Dados, aprovada no Congresso no mês passado e em vias de ser sancionada pelo presidente Michel Temer.
Jonas Valente da Agência Brasil
Edição: Lílian Beraldo
*A matéria foi ampliada às 17h01 do dia 23 de julho para inclusão de informações da SPC Brasil