Como melhorar a imparcialidade da Inteligência Artificial?

Os vieses algorítmicos conduzem a resultados injustos ou arbitrários. Mas temos muitas estratégias e técnicas para combatê-los.

Por Kathy Baxter, Arquiteta Principal da Prática Ética de IA na Salesforce

O enviesamento algorítmico é uma das áreas de escrutínio mais prolíficas na indústria da IA. Erros sistémicos não intencionais podem levar a resultados injustos ou arbitrários, aumentando a necessidade de tecnologia padronizada e responsável – especialmente porque o mercado de IA deverá atingir os 110 mil milhões de dólares até 2024.

Existem várias formas de a IA se tornar tendenciosa e criar resultados nocivos.

Em primeiro lugar, existem os próprios processos de negócio para que a IA está a ser projetada para aumentar ou substituir. Se estes processos, o contexto e a quem são aplicados forem tendenciosos contra determinados grupos, independentemente da intenção, a aplicação da IA resultante também será tendenciosa.

Em segundo lugar, os pressupostos básicos que os criadores de IA têm sobre os objetivos do sistema, quem o utilizará, os valores das pessoas afetadas ou como será aplicado podem inserir um enviesamento prejudicial. Em seguida, o conjunto de dados utilizados para treinar e avaliar um sistema de IA pode resultar em danos se os dados não forem representativos de todos os que irão impactar, ou se representarem enviesamentos históricos e sistémicos contra grupos específicos.

Finalmente, o modelo em si pode ser tendencioso se variáveis sensíveis (por exemplo, idade, raça, sexo) ou seus proxy (por exemplo, nome, código postal) são fatores nas previsões ou recomendações do modelo. Os developers devem identificar onde há distorção em cada uma destas áreas e, em seguida, sistemas e processos de auditoria objetivamente que conduzam a modelos injustos (o que é mais fácil dizer do que fazer, uma vez que existem pelo menos 21 definições diferentes de justiça).

Para criar a IA de forma responsável, construir a ética do projeto ao longo do ciclo de vida de desenvolvimento da IA é fundamental para a mitigação. Vamos dar uma olhada em cada passo.

Alcance

Em qualquer projeto de tecnologia, comece por perguntar: “Isso deveria existir?” e não apenas “Podemos construir?”

Não queremos cair na armadilha do tecnicismo – a crença de que a tecnologia é a solução para todos os problemas ou desafios. No caso da IA em particular, deve perguntar-se se a IA é a solução certa para atingir o objetivo pretendido. Que pressupostos estão a ser feitos sobre o propósito da IA, sobre as pessoas que serão afetadas e sobre o contexto da sua utilização? Existem riscos conhecidos ou enviesamentos sociais ou históricos que possam ter impacto nos dados de formação necessários para o sistema? Todos temos preconceitos implícitos. O sexismo, o racismo, o preconceito etário, o preconceito contra as pessoas com deficiência e outros preconceitos históricos serão amplificados na IA, a menos que tomemos medidas explícitas para as abordar.

Mas não podemos resolver o preconceito até o procurarmos. É o próximo passo.

Análise

É preciso uma pesquisa profunda de utilizadores para interrogar completamente as nossas suposições. Quem está incluído e representado em conjuntos de dados e quem é eliminado? Quem será afetado pela IA e como? Este passo é onde entram em jogo metodologias como a verificação de consequências e a modelação de danos. O objetivo é identificar as formas pelas quais um sistema de IA pode causar danos não intencionais por agentes maliciosos ou pessoas bem-intencionadas e ingénuas.

Quais são as formas alternativas e válidas de utilização de uma IA que cause danos não propositados? Como é que estes danos podem ser atenuados, especialmente aqueles que podem recair sobre as populações mais vulneráveis (por exemplo, crianças, idosos, deficientes, populações pobres e marginalizadas)? Se não consegue identificar formas de mitigar os danos mais prováveis e graves, pare. Este é um sinal de que o sistema de IA em desenvolvimento não deve existir.

Teste

Existem muitas ferramentas de código aberto disponíveis hoje para identificar o enviesamento e a justiça em conjuntos de dados e modelos (por exemplo, os hipotéticos instrumentos de variação da Google, ML Fairness Gym, IBM AI 360 Fairness, Aequitas, FairLearn). Existem também ferramentas disponíveis para visualizar e interagir com os dados para entender melhor o quão representativo ou equilibrado é (por exemplo, Facets da Google, IBM AI 360 Explainability). Algumas destas ferramentas também incluem a capacidade de mitigar o enviesamento, mas a maioria não, por isso esteja preparado para adquirir ferramentas para o efeito.

A formação de equipas vermelhas provém da disciplina de segurança, mas quando aplicadas num contexto de uso ético, os testers tentam utilizar o sistema de IA de uma forma que cause danos. Isto expõe riscos éticos (e potencialmente legais) que deve então descobrir como lidar. Os júris comunitários são outra forma de identificar potenciais danos ou consequências não intencionais de um sistema de IA. O objetivo é reunir representantes de uma população diversificada, especialmente comunidades marginalizadas, para entender melhor as suas perspetivas sobre como qualquer sistema pode impactá-los.

Mitigação

Há diferentes maneiras de mitigar os danos. Os developers podem optar por remover a funcionalidade mais arriscada ou incorporar avisos e mensagens na app para fornecer atrito consciente, guiando as pessoas sobre o uso responsável da IA. Em alternativa, pode optar por monitorizar e controlar firmemente a forma como um sistema está a ser utilizado, desativando-o quando for detetado um dano. Em alguns casos, este tipo de supervisão e controlo não é possível (por exemplo, modelos específicos do arrendatário onde os clientes criam e treinam os seus próprios modelos nos seus próprios conjuntos de dados).

Existem também formas de abordar e mitigar diretamente o enviesamento em conjuntos de dados e modelos. Vamos explorar o processo de mitigação do enviesamento através de três categorias únicas que podem ser introduzidas em várias fases de um modelo:

Pré-processamento (viés de atenuação nos dados de formação);

Processamento (viés de atenuação nos classificadores);

Pós-processamento (enviesamento de atenuação nas previsões).

Tiro o chapéu à IBM pelo seu trabalho inicial na definição destas categorias.

Mitigação de preconceito de pré-processamento

A mitigação do pré-processamento centra-se nos dados de formação, que suportam a primeira fase do desenvolvimento da IA e é frequentemente onde o enviesamento subjacente é suscetível de ser introduzido. Ao analisar o desempenho do modelo, pode haver um impacto diferente (isto é, um género específico é mais ou menos provável de ser contratado ou obter um empréstimo). Pense nisso em termos de preconceito prejudicial (ou seja, uma mulher é capaz de pagar um empréstimo, mas foi-lhe negado principalmente com base no seu sexo) ou em termos de justiça (ou seja, quero ter a certeza de que estou a contratar com equilíbrio de género).

Os humanos estão fortemente envolvidos na fase de dados de treino, mas os humanos têm preconceitos inerentes. A probabilidade de resultados negativos aumenta com a falta de diversidade nas equipas responsáveis pela construção e implementação da tecnologia. Por exemplo, se um determinado grupo é inadvertidamente deixado de fora de um conjunto de dados, então automaticamente o sistema está a colocar um conjunto de dados ou grupo de indivíduos em desvantagem significativa devido à forma como os dados são usados para treinar modelos.

Mitigação da polarização no processamento

As técnicas de processamento permitem-nos reduzir o enviesamento nos classificadores enquanto trabalhamos no modelo. No Machine Learning, um classificador é um algoritmo que classifica ou categoriza automaticamente dados em um ou mais conjuntos. O objetivo aqui é ir além da precisão e garantir que os sistemas são justos e precisos.

A degradação do oponente é uma técnica que pode ser usada nesta fase para maximizar a precisão, reduzindo a evidência de atributos protegidos nas previsões. Essencialmente, o objetivo é “quebrar o sistema” e fazê-lo fazer algo que pode não querer fazer.

Por exemplo, quando uma instituição financeira está a tentar medir a “capacidade de reembolso” de um cliente antes de aprovar um empréstimo, o seu sistema de IA pode prever a capacidade de alguém com base em variáveis sensíveis ou protegidas, como etnia e género ou variáveis proxy (como o código postal, que pode correlacionar com etnia). Estes preconceitos no processo levam a resultados imprecisos e injustos.

Ao incorporar uma ligeira modificação durante o treino, as técnicas de processamento permitem a mitigação do enviesamento, garantindo ao mesmo tempo que o modelo está a produzir resultados precisos.

Mitigação da polarização pós-processamento

A mitigação pós-processamento torna-se útil depois de os developers treinarem um modelo, mas agora querem igualar os resultados. Nesta fase, o pós-processamento visa mitigar o enviesamento nas previsões – ajustando apenas os resultados de um modelo em vez dos dados classificadores ou de formação.

No entanto, ao aumentar as saídas, poderá estar a alterar a precisão. Por exemplo, este processo pode resultar na contratação de menos homens qualificados se o resultado preferido for a representação de género igual, em vez de conjuntos de competências relevantes (por vezes referidos como viés positivos ou ações afirmativas). Isto irá afetar a precisão do modelo, mas atingirá o objetivo pretendido.

Lançar e monitorizar

Uma vez treinados os developers estão convencidos de que cumprem os limites predefinidos de parcialidade ou justiça, deve ser documentado como foi treinado, como o modelo funciona, casos de uso pretendido e não intencional, avaliações de polarização orientadas por equipas e quaisquer riscos sociais ou éticos. Este nível de transparência não só ajuda os clientes a confiar em IA; podem ser obrigados a operar num sector regulamentado. Felizmente, existem algumas ferramentas de código aberto para ajudar (por exemplo, o Kit de Ferramentas de Cartão modelo da Google, AI FactSheets 360 da IBM, Open Ethics Label).

A libertação de um sistema de IA nunca é definida e esquecida; requer monitorização contínua para desvio de modelo. A deriva pode afetar não só a precisão e desempenho de um modelo, mas também a sua imparcialidade. Teste um modelo regularmente e esteja preparado para treinar novamente se a deriva se tornar demasiado grande.

Acertando na IA

Fazer a IA “certa” é difícil, mas mais importante do que nunca. A Comissão Federal do Comércio dos Estados Unidos sinalizou recentemente que pode impor leis que proíbam a venda ou a utilização de IA tendenciosa, e a União Europeia está a trabalhar num quadro jurídico para regular a IA. A IA responsável não só é boa para a sociedade, como cria melhores resultados de negócio e reduz os riscos legais e de marca.

A IA tornar-se-á mais prolífica a nível global à medida que forem criadas novas aplicações para enfrentar os principais desafios económicos, sociais e políticos. Embora não exista uma abordagem “de um tamanho único” para criar e implementar IA responsável, as estratégias e técnicas discutidas neste artigo ajudarão em várias fases do ciclo de vida de um algoritmo – atenuando o enviesamento para nos aproximar da tecnologia ética em escala.

No final das contas, é da responsabilidade de todos garantir que a tecnologia é criada com as melhores intenções e que os sistemas estão em vigor para identificar danos não intencionais.

Autores

Artigos relacionados

O seu comentário...

*

Top