União Europeia apresentou diretrizes éticas para o IA

Um grupo de especialistas da União Europeia divulgou esta semana um documento com as diretrizes éticas para o desenvolvimento de tecnologias com base em inteligência artificial. Estas são utilizadas em diversas atividades, da seleção as publicações mostradas nas redes sociais a sistemas de avaliação de crédito.

O termo inteligência artificial é usado para descrever sistemas de serviços a partir de uma sofisticada capacidade de processamento de informação, semelhante ou até superior a de seres humanos. O desempenho de algumas tecnologias, em tarefas denominadas humanas,  já mostrou ser superior ao das pessoas.

Este documento faz parte de um processo da União Europeia para estabelecer uma visão “centrada nos humanos” para a construção de soluções “confiáveis” de sitemas com base em IA. Podendo estas direterizes serem materializadas tanto em legislações e normas administrativas como em orientações gerais para fabricantes e investigadores.

Uma das diretrizes, por exemplo, indica a relevância da participação e do controle dos seres humanos, com objetos técnicos que promovam o papel e os direitos das pessoas, e não prejudiquem estes. Uma orientação complementar é a garantia de que os sistemas considerem a diversidade de segmentos e representações humanas (incluindo gênero, raça e etnia, orientação sexual e classe, entre outros), evitando atuações que gerem discriminação.

Segundo este documento, os sistemas de IA devem ser “robustos” e “seguros”, de modo a evitar erros  devendo ter condições para lidar com eles, corrigindo eventuais inconsistências. Estes problemas podem ter sérios impactos na sociedade, como a discriminação de pessoas no acesso a um serviço ou até mesmo influencia direta em bolsas de valores cujas compras e vendas de ações utilizem sitemas com base em IA.

Ao mesmo tempo, o texto destaca a necessidade de assegurar a transparência dos sistemas. Isto porque a opacidade dessas tecnologias pode trazer riscos, uma vez que seu caráter inteligente torna mais difícil entender porque determinada operação ou decisão foi tomada de uma determinada maneira e não de outra. Assim, os autores defendem que um sistema de IA deva ser “rastreável” e “explicável”, para que não haja dificuldades na compreensão de sua atuação.

Segundo o documento, estas soluções técnicas devem assegurar a privacidade e o controle dos cidadãos sobre seus dados. As informações recolhidas sobre um indivíduo não podem ser utilizadas para prejudicá-lo, como em decisões automatizadas que o discriminam em relação a alguém. Existem já estudos que mostraram como as tecnologias com base em IA incorporam vieses, privilegiando, por exemplo, pessoas brancas em detrimento de negros na caracterização ou na oferta de um serviço. Ainda esta semana o presidente da Microsoft anunciava, numa conferência, que a empresa americana recusou a instalação do seu sistema de reconhecimento facial, nos carros da polícia do estado da Califórnia, por razões éticas evocando que a esta tecnologia não estava preparada garantir imparcialidade nos seus reconhecimentos.

Há seguramente um trabalho de regulamentação a fazer e seria importante os cidadãos terem em mente a relevância deste tema deste tema e perceberem o que cada força política e cada grupo de candidatos ao parlamento europeu pensam sobre ele.

Artigos relacionados

O seu comentário...

*

Top