Roberto Medeiros fala dos vieses da Inteligência Artificial, e como eles devem ser mitigados para uma tecnologia mais justa e humana.
Publicado em 22/01/2024 17h00
7 minutos para leitura
Vieses da Inteligência Artificial | Na semana passada, ocorreu em Davos, na Suíça, mais uma edição do Fórum Econômico Mundial. O principal tema discutido na reunião com diversas figuras governamentais e empresariais foi em relação ao uso correto das tecnologias de Inteligência Artificial Generativa.
Em outubro de 2023, o nosso Associate Partner e Country Managing Director, Roberto Medeiros, compareceu ao SuccessConnect, maior evento de HXM do mundo, em Las Vegas, Nevada. Um assunto que dominou o evento e que está sendo amplamente discutido atualmente é a ética e vieses na Inteligência Artificial.
Ao falar com Roberto, ele nos lembrou que todas as tecnologias foram, antes de tudo, criadas e programadas por pessoas. Pessoas essas que têm suas vivências, motivações, e cultura, pré concepções individuais e sociais, muitas vezes inconscientes.
"Se a ação humana enviesada já tem consequências individuais, quando se fala de uma máquina programada por pessoas, e operada por algoritmos dentro de um aprendizado feito pelo machine learning, podemos ter consequências sociais mais profundas," enfatiza Roberto, após as palestras do SuccessConnect.
Uma pesquisa realizada pela McKinsey, trouxe alguns exemplos reais de como as empresas empregam vieses inconscientes em seus negócios. Como exemplo, a consultoria trouxe a análise de crédito de candidatos a emprego, que pode prejudicar minorias sociais. Segundo o estudo, isso é feito mesmo sem evidências claras de uma conexão entre o histórico de crédito e o desempenho no trabalho.
Alguns especialistas da tecnologia argumentam que a IA pode e deve reduzir a interpretação parcial humana de dados. Isso se deve, pois os algoritmos de Machine Learning aprendem a considerar apenas os fatores que aumentam a precisão de suas previsões, tornando as visões mais imparciais.
Em contrapartida, para enfatizar o argumento da McKinsey, pode-se citar o caso de um software desenvolvido para realizar avaliações de risco nos prisioneiros do sistema criminal americano. Esses softwares foram desenvolvidos para auxiliar nas decisões sobre quem pode ser libertado em todas as fases do sistema de justiça criminal em vários estados dos EUA.
Mesmo que desenvolvido com as melhores intenções pela equipe responsável, o software acabou revelando disparidades e injustiças sociais baseadas na aparência dos detentos. O algoritmo rotulava erroneamente os futuros réus pretos com alto risco em quase duas vezes a mais que os brancos. E da mesma forma, o software rotulou erroneamente os réus brancos como de baixo risco com mais frequência do que os réus negros.
Os mesmos pesquisadores que constataram os vieses no caso do software de avaliação de risco do sistema criminal americano, constataram outras falhas em diferentes setores sociais. Como exemplo, se fizermos uma busca com o termo "CEO" no Google Imagens, apenas 11% dos resultados mostrarão mulheres. Isso se mostra contrário ao argumento de diversidade e inclusão que as empresas estão adotando.
Isso não significa, necessariamente, que os desenvolvedores desses sistemas sejam pessoas racistas ou machistas, mas que os algoritmos estão condicionados a reconhecerem e analisarem dados que sigam esse padrão de desigualdades históricas e sociais.
Agora a discussão que fica é em relação a como induzir dados imparciais para avaliação de um algoritmo em um sistema operacional.
Para mitigar estes problemas de viés da Inteligência Artificial no processo de tomada de decisão, é crucial empregar uma combinação de abordagens. Uma delas tem relação com a atuação da IA, como apoio para aceleração do próprio processo, e observação de seu comportamento, identificando oportunidade de aprimoramento de seu treino para aplicação cada vez mais autônoma.
Segundo uma pesquisa da Stack Overflow com mais de cem mil pessoas desenvolvedoras ao redor do mundo em 2018: quase metade das pessoas criadoras e tecnólogas por trás da ML e IA deveriam ser as primeiras responsáveis por questões sociais envolvendo IA. E um terço considera que deveria ser um órgão regulatório.
Interpretabilidade e Explicabilidade
É importante que a tomada de decisões dentro dos algoritmos seja explicada de forma clara e compreensível. No entanto, com a popularização de modelos mais complexos, como os de Deep Learning, torna-se difícil entender a contribuição de cada atributo na produção de um resultado.
Isso levou à necessidade de estudar formas de interpretar e explicar os algoritmos de Machine Learning, muitas vezes opacos, conhecidos como “caixa preta”. A Interpretabilidade é a possibilidade de observar a relação de causa e efeito dentro de um sistema, de entender o que está acontecendo no algoritmo sem necessariamente entender o porquê.
Enquanto a explicabilidade é a capacidade de explicar em termos humanos a mecânica interna da máquina. Esses são conceitos que poderiam ajudar a aumentar a confiança na utilização de tecnologias de IA.
A criação de sistemas de IA justos exige que eles reflitam os valores das pessoas ou populações que os utilizarão. A inclusão de diversidade é fundamental para alcançar esse objetivo. Quanto mais diversidade houver nas equipes de desenvolvimento dos sistemas de IA, menor será a ocorrência de erros e vieses.
No entanto, ainda há um desequilíbrio de gênero na força de trabalho com habilidades técnicas disruptivas, como IA, robótica e engenharia genética, segundo o Fórum Econômico Mundial em 2020. As mulheres representam apenas 26% dos profissionais em IA e Ciência de Dados no mundo, enquanto os homens representam 74%.
No Brasil, a proporção é ainda menor, com apenas 18% de mulheres nessas áreas. Isso é ainda mais preocupante quando se considera a falta de representação de mulheres negras, periféricas e outros grupos minoritários. É importante tornar esses processos mais inclusivos para garantir que a diversidade seja valorizada e que a inclusão seja priorizada.
É evidente que os vieses prejudicam não apenas aqueles que sofrem discriminação, mas também afetam toda a sociedade. Isso, dito, o potencial da Inteligência Artificial fica reduzido para o bem comum. Esses vieses estimulam a desconfiança e podem gerar resultados distorcidos.
Os líderes empresariais e organizacionais são responsáveis por garantir que os sistemas de IA que utilizam sejam desenvolvidos de forma ética e imparcial. Dessa forma, eles têm como finalidade melhorar a tomada de decisões humanas. Além disso, esses líderes devem procurar tecnologias que ajudem a promover a justiça social. Afinal, a IA é uma ferramenta poderosa que pode trazer benefícios significativos para a sociedade se for usada de maneira responsável e consciente.
Antevendo possíveis violações a direitos decorrentes dessas falhas, alguns países e empresas já discutem a criação de normas que tratem do problema. É o caso da SAP.
Ao mesmo tempo em que existe um trabalho de pesquisa voltado para inovação e utilização da IA generativa em suas plataformas, a empresa viu a necessidade de desenvolver um Manual para inscrição Política Global de Ética em IA da SAP em todo o processo de fábrica de IA.
A SAP sabe que a IA tem grande potencial para criar oportunidades para as empresas, governos e sociedades. As pessoas só confiarão em soluções de IA se houver o regimento de regras morais claras no desenvolvimento, a implantação, o uso e a venda de sistemas de IA.
De acordo com a SAP no SuccessConnect, a IA Generativa será um dos pilares das soluções SAP SuccessFactors. O seu treinamento em conjunto de dados de negócios dos mais amplos setores mostra a confiabilidade e relevância dessa IA para os processos de negócios. Além disso, a sua construção em princípios éticos e de privacidade de dados garante a sua responsabilidade.
A estratégia se baseia na entrega de valor aos negócios com diversos tipos de IA, como:
Nota média: 4,75
E fique por dentro de todas as novidades da EPI-USE Brasil.
Legal!
Você assinou a nossa Newsletter!
A partir de agora você receberá nossas novidades diretamente no seu e-mail!
Para isso, é importante que você adicione o e-mail marketing@epiuse.com.br na lista de remetentes confiáveis,
para evitar que nossas mensagens fiquem presas na caixa de spam!
Um abraço,
Equipe EPI-USE Brasil
Opps!
Um erro ocorreu!
Sentimos muito por isso! Tente novamente mais tarde!
Um abraço,
Equipe EPI-USE Brasil