Netflix/Reprodução

Documentário da cineasta e ativista americana Shalini Kantayya, disponível na Netflix, mostra como a Inteligência Artificial (IA), que tanto contribui para facilitar o nosso dia a dia, pode se tornar um problema para a sociedade.

Quem nunca frequentou um local monitorado por câmeras e se deparou com aquela famosa plaquinha com o seguinte aviso: “Sorria, você está sendo filmado”? Certamente, você já vivenciou esta cena que acabamos de descrever inúmeras vezes, não é verdade?

Estabelecimentos privados ou espaços públicos, atualmente, quase todos estão equipados com câmeras de segurança para garantir a proteção dos patrimônios e das pessoas, mas até que ponto nós podemos confiar neste tipo de tecnologia?

Coded Bias mostra como Joy Buolamwini, pesquisadora do Instituto de Tecnologia de Massachusetts (MIT), descobriu a existência de falhas por trás dos algoritmos de reconhecimento facial dos sistemas de Inteligência Artificial (IA), que apresentaram viés machista e racista.

O problema foi identificado por Buolamwini quando a pesquisadora, que é negra, posicionou o seu rosto diante de uma tela com o recurso de IA e não foi reconhecida pelo sistema, porém, ao colocar uma máscara branca, o equipamento conseguiu detectar a ação.

A partir deste fato, Joy identificou que os programas de Inteligência Artificial, que não tinham a capacidade de reconhecerem, de forma precisa, rostos negros e de mulheres, são treinados para distinguir padrões embasados em um conjunto de dados, construídos e pensados por homens brancos.

Outro estudo apresentado pelo documentário Coded Bias é o caso de Silkie Carlo que, assim como Buolamwini, também tenta combater o uso sem regulamentação da tecnologia de reconhecimento facial. Silkie é diretora do Big Brother Watch, grupo de campanha pelas liberdades civis do Reino Unido, que realiza o monitoramento do uso desta tecnologia de IA pela polícia britânica.  

A preocupação de Carlo, Buolamwini e muitos outros ativistas que brigam por uma legislação apropriada para o uso da IA é que essa tecnologia de reconhecimento facial utilizada em nome da segurança pública acabe capturando pessoas inocentes com base em análises feitas erroneamente.

Um exemplo disso é mostrado no próprio documentário quando um grupo de manifestantes em Hong Kong, na China, utilizam máscaras para impedir o reconhecimento facial, já que o governo chinês se utiliza dessa tecnologia para prender suspeitos que se rebelam contra o Estado. 

Inteligência Artificial no Brasil

Da mesma forma que no Reino Unido, China e muitos outros país, no Brasil também não existe nenhuma regulamentação a respeito da utilização da IA.

O Senado fará no dia 16 de julho de 2021, uma sessão de debates temáticos para discutir o Projeto de Lei (PL) 872/2021, que disciplina o uso da Inteligência Artificial no Brasil. A proposta foi apresentada pelo senador Veneziano Vital do Rêgo (PSB-PB) e recebeu 17 emendas.