A diversidade de gênero, raça, classe e religião foi apontada como uma alternativa na busca por caminhos para reduzir os impactos dos vieses nos algoritmos e promover mais equidade no uso da inteligência artificial. O tema foi debatido no programa Conexão IAB desta quinta-feira (2/10), no qual participaram a presidente da Comissão de Inteligência Artificial e Inovação do Instituto dos Advogados Brasileiros, Ana Amélia Menna Barreto, a coordenadora do Grupo de Estudos em Gênero e Novas Tecnologias da Enfam, Camila Salmoria, e a especialista em Direitos Humanos pela Universidade de Coimbra Dayse Kubis.
Segundo Camila Salmoria, é preciso ter em mente que não é a tecnologia que tem um viés preconceituoso, mas sim aqueles que a programam. “Mulheres têm menos cargos de decisão, por exemplo. Começamos a ver problemas no que é desenvolvido quando um grupo não está presente no processo”, afirmou. Ao falar do uso da IA no Judiciário, ela apontou que é preciso acompanhar a união entre a tecnologia e a Justiça: “Temos que entender que esse uso vai existir, então precisamos de supervisão ao longo de todos os ciclos, para que esse olhar de combate ao preconceito seja aplicado”.
Para Ana Amélia Menna Barreto, manter a ética como um farol na utilização da inteligência artificial no Direito é o caminho a ser seguido. “Temos muitas questões em aberto, como os juízes poderem usar a IA comercial sem avisar antes. Isso é uma coisa que a advocacia questiona”, alertou a advogada. Na visão dela, a questão deve ser atravessada por mudanças culturais. “Damos vídeo games para meninos e bonecas para meninas. Mas precisamos de mulheres na ciência, na matemática e na tecnologia. Então, temos que plantar isso desde cedo”, completou.
A ideia foi reiterada por Dayse Kubis, que enfatizou a minoria feminina em posições de poder mesmo em áreas em que mulheres são maioria, como a educação, por exemplo. “Elas são muitas, mas não são chefes. A maior parte dos secretários de governo de educação são homens”, ponderou. A especialista em Direitos Humanos também destacou que o enviesamento da IA prejudica minorias já vulnerabilizadas: “Se a Justiça usar um sistema que tenda a ser racista, as pessoas negras vão ter uma aplicação mais dura das leis penais”.