Cidadãos devem definir o futuro da Inteligência Artificial

É necessário que a discussão sobre a inteligência artificial saia das salas de reuniões de executivos de empresas de tecnologia de informação, das mesas de engenheiros de software e ganhe espaço junto à sociedade.

Por Victor Rizzo | Diretor de Inovação da e-Xyon

Victor Rizzo

Apesar de os algoritmos de inteligência artificial já estarem nas nossas vidas e no nossos smartphones, estamos a viver apenas o início da era de sua ascensão. Se por um lado os benefícios e as comodidades oferecidas por estas aplicações caem rapidamente no gosto das pessoas, por outro, os problemas que surgem a partir da ausência de regras transparentes começam a acumular-se.

Mas é exatamente na grande capacidade de atrair utilizadores que reside, em parte, o perigo. Muitas aplicações são desenvolvidas sem regras claras ou transparentes sobre sigilo e privacidade de dados. As big techs, grandes companhias de tecnologia, têm sido sistematicamente acusadas de uso indevido das informações que coletam dos seus utilizadores, sem que isso fique claro. Ou seja, as pessoas não têm a menor ideia que os seus dados estão a ser coletados e nem sabe onde vão parar. O caso mais notório disto foi o uso indevido de dados de utilizadores do Facebook pela Cambridge Analytica.

Existe, por outro lado, uma desconfiança crescente da sociedade sobre o viés de algoritmos, mesmo que as pessoas não saibam exatamente o que isso significa. Recentemente participei do Web Summit. Onde pude acompanhar algumas palestras, como a de Edward Snowden, que abriu o evento a falar sobre os grandes problemas de privacidade, ou do ex-primeiro-ministro do Reino Unido, Tony Blair, sobre a exclusão digital. Senti-me obrigado a concordar que além dos grandes avanços tecnológicos atuais, temos também imensos problemas que teremos que enfrentar e resolver como sociedade.

De todos os debates que assisti, o que mais me preocupou foi um que abordou a coleta de dados de utilizadores realizados por diversos sites e aplicações para vender mais e mais produtos e serviços. Neste contexto, cidadãos acabam despidos dos seus direitos básicos e passam a ser tratados meramente como “consumidores”. Países e sociedades passaram a ser “mercados”. Os indivíduos são analisados como ativos de marketing, “clusterizados” em grupos de comportamentos similares.

A coleta de dados tem somente dois objetivos: vender mais ou aperfeiçoar produtos e serviços para vender ainda mais. Até as conversas privadas são gravadas por “inocentes” assistentes inteligentes instalados dentro de sua casa e os seus dados podem ser vendidos a empresas que desejam conhecer melhor o perfil dos “clientes”.

Esta prática de simplificação e “codificação” humana é altamente arriscada e pode levar-nos, como cidadãos, a uma condição de impotência em relação a como devemos viver daqui para frente. Cria-se uma brutal assimetria de informação, na qual a ponta do cidadão é a parte mais fraca. Precisamos realmente refletir se vamos deixar a nossa vida intima nas mãos de organizações mais poderosas que muitos governos.

É inevitável a força da inovação e os benefícios que a inteligência artificial nos trará. Mas, pouco entendemos sobre como estas tecnologias são criadas e implementadas a partir dos objetivos puramente económicos de seres humanos e empresas.

Também é fundamental lembrar que as máquinas não têm autonomia para decidir. Assim, a tomada de decisão a respeito da aplicação, em primeira instância, é sempre uma prerrogativa do humano que a criou. E, seguindo essa linha de raciocínio, entendo que um dos pontos a serem questionados pela sociedade é: quais os modelos de vida nós desejamos seguir? Em particular nossa atenção deve recair sobre os algoritmos que têm emprego público, em larga escala, em toda a sociedade. Precisamos conhecer melhor como são desenvolvidos, que dados são coletados, o que é feito com estes dados, e se esses apresentam ou não determinado viés.

É necessário que a discussão sobre a inteligência artificial saia das salas de reuniões de executivos de empresas de tecnologia de informação, das mesas de engenheiros de software e ganhe espaço junto à sociedade. Esta última é que deverá decidir quais as prerrogativas e limites que os algoritmos deverão respeitar. É necessário também que os resultados dos algoritmos sejam auditáveis, mesmo sem conhecermos os meandros tecnológicos utilizados para a sua criação.

Sem o devido debate com toda a sociedade, este tipo de tecnologia tem uma enorme capacidade de criar níveis alarmantes de exclusão, desigualdades, afetar sociedades inteiras e lançar a humanidade em problemas em uma escala sem precedentes na história.

Contudo, nossa geração tem a grande oportunidade de criar algoritmos livres de viés e preconceitos e, assim, melhores do que muitos seres humanos. Isso sim, seria um grande salto para a humanidade. Mas, para que isso aconteça, temos que entender e participar mais ativamente do debate e da avaliação de algoritmos que possuem emprego público.

Quanto aos limites a serem respeitados pela tecnologia e pela coleta de dados o mundo está hoje dividido em três grandes blocos. Dos excessos de controle estatal praticados na China sobre o cidadão e a sociedade por um lado, aos não menos danosos excessos praticados pelas big techs dos Estados Unidos. Entre os dois extremos está a Europa que tenta colocar algum tipo de regra aos excessos dos dois lados, com a adoção de uma lei de proteção de dados, o GDPR.

No ano passado, a gigante de e-commerce Amazon precisou dar explicações sobre o viés dos algoritmos desenvolvidos para o recrutamento de novos colaboradores, pois esses apresentavam uma tendência para a seleção de um percentual maior de currículos de candidatos do gênero masculino. O motivo, segundo a empresa, estava no fato de haver um número maior de currículos masculinos selecionados nos processos seletivos praticados, por seres humanos, nos últimos 10 anos. Como os dados utilizados para treinar do algoritmo, o chamado dataset, continham um percentual maior de currículos masculinos, o algoritmo apenas reproduziu o que recrutados humanos já faziam. Nada que uma análise mais criteriosa não pudesse prever e evitar. Bastaria apenas excluir o atributo gênero, deixando que a seleção fosse realizada somente com base em competências técnicas. Alguém faria a seleção dos candidatos por altura ou cor dos olhos? Claro que não! Então por que considerar o gênero como um atributo para o treino do algoritmo?

Procedendo desta forma, ao alimentar a rede neural sem o atributo de gênero, mesmo que o dataset contivesse uma maioria de homens, o sistema seria capaz de realizar a seleção independentemente do gênero, eliminando a desproporção de gênero. Será que o algoritmo iria selecionar mais mulheres?

Na área da tecnologia, mais do que potencial para oferecer respostas, é preciso saber fazer as perguntas corretas. Um exercício ético e filosófico que não deve ficar a cargo apenas de quem atua no setor. Precisamos envolver vários segmentos da sociedade, capazes de fazer as perguntas certas para chegarmos às melhores respostas. A inovação não pode parar, mas os cidadãos precisam ser respeitados.

Autores

Artigos relacionados

O seu comentário...

*

Top