Promover a diversidade, a independência e a participação são medidas para uso responsável da IA

Promover a diversidade, a independência e a participação; identificar objetivos e contexto da solução e questionar efeitos; eleger e monitorar critérios de fairness; planejar e documentar a gestão de riscos; familiarizar-se com o dataset e analisar sua adequação; entre outros, podem mitigar os vieses negativos em sistemas de IA são medidas para usar a inteligência artificial de forma a mitigar vieses de algoritmos, segundo um guia lançado pelo Centro de Ensino e Pesquisa em Inovação (CEPI) da FGV Direito S.
O uso responsável de sistemas de inteligência artificial consta do “Governança Da Inteligência Artificial Em Organizações Arquitetura de Confiabilidade e Gestão de Vieses”, relatório que marca o encerramento dos trabalhos de um projeto de pesquisa aplicada que contou com a condução de grupo de pesquisa com especialistas externos no tema, além de entrevistas com as empresas parceiras.
A pesquisa elegeu três frentes de atuação: a primeira é a consolidação de um vocabulário comum e conhecimento de base entre os diferentes profissionais que lidam com o desafio de vieses nas soluções tecnológicas de suas empresas; a segunda é a conscientização sobre o panorama de riscos que uma organização está sujeita quando implementa soluções de IA; e a terceira frente diz respeito à adaptação dos instrumentos de governança organizacional a estes desafios.
De acordo com Luiza Morales, pesquisadora do CEPI-FGV, o estudo traça um panorama instrumental importante para que as empresas usem a inteligência artificial de forma ética, promovendo maior segurança ao ecossistema de inovação e atenção ao que vem sendo chamado de justiça algorítmica.
A implementação de soluções de IA é objeto de trabalho para muitas áreas do conhecimento. O relatório relaciona o tema com preocupações oriundas da regulação de proteção de dados pessoais, além de outros campos como Direito Antidiscriminatório, Diversidade e Inclusão, Gestão de Riscos, entre outras.
O estudo evidencia que o tema da discriminação já está pautado em diversos campos do direito, revelando a capilaridade, variedade e relevância que esse campo dedica ao tema de discriminação e, consequentemente, de discriminação a partir de vieses em sistemas algorítmicos. Deste modo, o estudo corrobora a necessidade do entendimento desses sistemas jurídicos, indicando obrigações, direitos e organizacionais, para além dos futuros marcos legais específicos da IA.
A pesquisa também traz uma consolidação das principais discussões e entendimentos em relação ao conhecimento sobre tecnologia, sendo esse conhecimento importante para o entendimento das complexificações de quando os algoritmos passam a mediar nossas relações sociais e assim demandam novas soluções jurídicas e organizacionais.
Com a análise de pesquisas aplicadas ao tema, o estudo constatou que se costumam localizar as medidas no ciclo apresentando soluções tanto comuns quanto originais. A partir disso, o relatório consolidou essas medidas em 11 conjuntos de medidas:
- Realizar supervisão humana
- Promover diversidade, independência e participação
- Identificar objetivos e contexto da solução e questionar efeitos
- Eleger e monitorar critérios de fairness
- Planejar e documentar a gestão de riscos
- Familiarizar-se com o dataset e analisar sua adequação
- Considerar, examinar e selecionar variáveis, features e proxies
- Considerar a experiência do usuário
Tratar e preparar os dados - Desenhar ou selecionar modelos interpretáveis
- Operar constrições e obstáculos no modelo
Esses conjuntos de medidas são detalhados no relatório de acordo com o que cada momento do ciclo de vida da solução de IA pede, apontando quais tipos de vieses podem ser sanados com cada um desses conjuntos de medidas.
Desse modo, a última contribuição do estudo se caracteriza pela união da consolidação de ciclos com o repositório de medidas, formando uma ferramenta de transposição de frameworks já consagrados que busca trazer praticidade e clareza no grande desafio que é a governança de vieses em IA.
Confira aqui o estudo.