Novidades sobre comunicação, educação, empreendedorismo, tecnologia, inovação e muito mais.

23 de Julho de 2018

Facebook enfrenta questionamentos por ferramenta de reconhecimento que identifica usuários da rede

[0] Comentários | Deixe seu comentário.

Um dos alvos tanto de preocupação quanto de questionamentos judiciais quando se fala em reconhecimento facial é o Facebook. A plataforma começou a adotar o reconhecimento de faces no ano passado. Diferentemente da ferramenta de marcação de pessoas em fotos, o novo recurso passou a identificar o usuário em qualquer imagem e a alertá-lo quando uma foto era publicada ou compartilhada.

“Nós queremos que as pessoas se sintam confortáveis ao postar uma foto de si próprias no Facebook. Estamos fazendo isso para prevenir que pessoas se passem por outras”, explicou o diretor de Machine Learning da empresa, Joaquim Candela, em um comunicado divulgado em dezembro.

Contudo, a iniciativa foi questionada tanto publicamente quanto na Justiça em diferentes locais. A organização de promoção da privacidade estadunidense EPIC apresentou em abril uma reclamação junto ao órgão de concorrência dos EUA (FTC, na sigla em inglês). Segundo a entidade, “o escaneamento de imagens faciais sem consentimento afirmativo e expresso é ilegal e deve ser proibido”. A plataforma também é objeto de outro processo, ajuizado por cidadãos do estado de Illinois, que pode resultar em multas de bilhões de dólares.

A ferramenta do Facebook passou a ser questionada também na Europa, que ganhou uma nova legislação de proteção de dados em maio deste ano. A Regulação Geral (GDPR, na sigla em inglês) coloca como requisito para a coleta de um dado o consentimento, que deve ser obtido de formas específicas não respeitadas pelo sistema da plataforma.

Sistema apresenta falhas para reconhecimento em grupos raciais

Outra preocupação com os sistemas de reconhecimento e detecção facial envolve as falhas na identificação de pessoas, especialmente na precisão diferente para distintos grupos étnicos e raciais.

Em fevereiro deste ano, dois pesquisadores do renomado Instituto de Tecnologia de Massachussets (MIT, na sigla em inglês) e da Universidade de Stanford, Joy Buolamwini e Timnit Gebru, testaram sistemas e constaram que as margens de erro eram bastante diferentes de acordo com a cor da pele: 0,8% no caso de homens brancos e de 20% a 34% no caso de mulheres negras.

Os pesquisadores também identificaram que as bases de dados utilizadas para “treinar” determinados sistemas eram majoritariamente de cor branca e de homens. O artigo coloca a preocupação de como essas tecnologias são construídas e de que maneira esses vieses podem ter impactos problemáticos, como na identificação de suspeitos de crimes.

Com informações de reportagem de Jonas Valente para a Agência Brasil

Deixe seu comentário

O seu endereço de e-mail não será publicado.

Sobre Juliska

Juliska Azevedo é jornalista natural de Natal-RN, com larga experiência em veículos de comunicação e também assessoria de imprensa nos setores público e privado.

+ Leia mais

Categorias