Na medida em que o debate sobre racismo ganha destaque na sociedade, torna-se evidente que esse problema também se expande no âmbito da tecnologia.
Um recente levantamento da Rede de Observatório da Segurança revelou dados alarmantes: 90,5% das prisões realizadas por meio de reconhecimento facial no Brasil envolvem pessoas negras, enquanto apenas 9,5% são de pessoas brancas.
Essas estatísticas levantam preocupações profundas sobre como os rostos de pessoas sem antecedentes criminais acabam sendo incluídos nos bancos de dados de suspeitos. A necessidade de enfrentar a discriminação e o viés racial nos sistemas de Inteligência Artificial (IA) se torna cada vez mais evidente.
O que os especialistas falam sobre o assunto
Valdinei Freire, professor Doutor na EACH-USP, ressalta que o viés algorítmico não é um conceito novo, mas sim um reflexo dos dados obtidos em nossa sociedade. Ele destaca: “Se a base de treinamento exibe padrões discriminatórios, os mesmos padrões serão replicados nas decisões dos sistemas inteligentes.”
Seguindo a mesma linha de raciocínio, Dayvid Castro, desenvolvedor de software da ZBRA e doutorando na Universidade Federal de Pernambuco, enfatiza a importância de trabalhar com dados de qualidade, representativos e balanceados para mitigar o viés nos sistemas de IA.
Quais são as propostas de solução
Uma solução proposta para lidar com esses problemas é o conceito de “Constitucional Inteligência Artificial”, que visa controlar o conteúdo gerado por assistentes de linguagem e evitar material nocivo à sociedade, incluindo conteúdo de cunho racial. Castro argumenta que são necessárias métricas mais confiáveis para quantificar o quão justo é um sistema, pois as atuais podem não ser suficientes para identificar vieses.
Além disso, ambos os especialistas enfatizam a importância de considerar a diversidade das pessoas para evitar exclusão ou discriminação nos sistemas de IA. Freire destaca que programadores e pesquisadores engajados racialmente podem identificar, criar e escolher técnicas que diminuam as diferenças de erros observadas em relação à etnia e ao gênero nos sistemas atuais.
Uma área emergente e com potencial é a Data-Centric AI, que se concentra na qualidade dos dados. Essa abordagem oferece a oportunidade de alinhar objetivos de justiça e equidade no desenvolvimento de técnicas centradas em dados. Um exemplo notável é a Monk Skin Tone (MST), desenvolvida pelo professor Ellis Monk de Harvard, que busca construir sistemas de visão computacional mais inclusivos.
O compromisso de todos no combate ao racismo
No entanto, para obter sucesso na construção de sistemas de IA mais justos e inclusivos, é necessário um compromisso contínuo com a redução do viés racista e outras formas de discriminação, colocando-os no mesmo patamar de importância dado à redução de erros nos sistemas de IA.
A conscientização sobre essas questões éticas e de discriminação é um passo crucial para garantir que a tecnologia seja desenvolvida e implementada de maneira responsável e justa para todos. É necessário um trabalho conjunto entre desenvolvedores, pesquisadores, reguladores e a sociedade como um todo.
Especialistas destacam que a transparência por parte das empresas e organizações que utilizam IA, tanto em relação aos seus processos quanto aos algoritmos empregados, é fundamental. Além disso, a adoção de diretrizes éticas e o estabelecimento de comitês internos são incentivados para garantir a responsabilidade e a transparência no campo da Inteligência Artificial.
Em última análise, o sucesso na construção de sistemas de IA mais justos e inclusivos começa desde a coleta de dados e depende da cooperação e do compromisso contínuo de todos os envolvidos no campo. Freire conclui: “Assim como acontece com o aprendizado de máquina, precisamos garantir que as decisões tomadas pelas várias instituições de nossa sociedade não reproduzam os padrões discriminatórios do passado.”