Coded Bias
“Coded Bias”, já disponível na Netflix, mostra a imprecisão dos sistemas de reconhecimento facial e seus efeitos para diversos campos da vida cotidiana.
O documentário parte do trabalho da pesquisadora Joy Buolamwini e sua investigação sobre o preconceito generalizado em algoritmos. Passa por casos que mostram as consequências dos diversos tipos de preconceito embutidos nessas tecnologias. E chega à sua jornada na promoção da primeira legislação nos Estados Unidos sobre o uso estatal e corporativo desses sistemas.
Mas sobre o que falamos quando falamos sobre algoritmos?
Quando tratamos do “algoritmo do google”, ou de qualquer outra plataforma, precisamos nos lembrar que o sentido é de uma sinédoque. Ou seja, usamos uma parte para representar o todo, reduzimos uma ampla rede de agentes, tecnologias, crenças, visões de mundo e de eficiência em apenas um termo: o algoritmo.
Por isso, “algoritmo do google”, por exemplo, representa um emaranhado de modelos de negócios, estruturas corporativas, interesses de acionistas e mercados, linguagens de programação, hierarquias empresariais, compliances, regulações externas, preconceitos de centenas de programadores e ainda a arquitetura de milhares de sistemas conectados entre si.
Cada vez mais será preciso expor esses emaranhados e realizar uma contravigilância sobre suas formas de atuação, e principalmente seus efeitos.