Inteligência Artificial: engenharia, segurança e ética

Devidamente controlada, nomeadamente pela engenharia, a Inteligência Artificial (IA) vai permitir um novo salto de produtividade e competitividade, nos processos de transformação, das empresas mais ousadas e inovadoras.

Por Carlos Costa | Quidgest

Carlos Costa

Algo semelhante acontecerá também com os Estados. De acordo com um estudo de 2019 da IE University, cerca de ¼ dos europeus (1/3 no Reino Unido e na Alemanha) quer que a IA – e não os políticos – tome decisões importantes sobre como o país é administrado.

 Mas os recentes casos dos Boing 737 Max 8, da Ethiopian Airlines e da Lion Air, vêm levantar a questão do perigo da automação em excesso e do domínio da máquina sobre o homem. Embevecidos com os prodígios da IA, os novos engenheiros podem deixar-se levar por caminhos que poderão custar a vida a muitos seres nos próximos anos. Ou entrar em zonas de ética e moral duvidosas.

Stephen Hawking, um dos mais reputados cientistas modernos disse mesmo que ” Os humanos, limitados pela lenta evolução biológica, não poderão competir e serão superados ” e que “o desenvolvimento da inteligência artificial completa poderá significar o fim da raça humana”.

Acho que não vale a pena dramatizar pois, tal como aconteceu com muitas outras grandes invenções da história da humanidade, desde o fogo, à eletricidade ou à energia nuclear, também no caso da IA, a engenharia (não militar) vai ter um papel fundamental no aproveitamento dos ganhos da tecnologia e na minimização ou eliminação total dos riscos da sua utilização.

Neste artigo iremos falar um pouco sobre o papel da engenharia, da segurança e também da ética no campo da inteligência artificial.

 Automação e automação em excesso

Há uns anos um amigo engenheiro contava-me, assustado, que o seu Mercedes-Benz tinha travado, por vontade própria, quando uma bola se atravessou na estrada à sua frente. Claro que podia vir uma criança atrás da bola e isso teria evitado um eventual acidente grave. Mas a travagem brusca não poderia ter criado outro tipo de acidente? Com a viatura que vinha atrás dele? Ou com um dos passageiros?

Pelo que apontam os primeiros estudos, os aviões que caíram recentemente terão também tomado decisões por vontade própria, contrariando a vontade dos pilotos. E isso é um efeito secundário da automação que não podemos aceitar. A última palavra terá que ser sempre do homem. Mesmo que essa palavra seja a de dizer à máquina para decidir.

 Na Quidgest, por exemplo, somos fanáticos pela automação, e há 3 décadas que colocamos software a criar software de uma forma muito mais produtiva. Mas, salvo algumas exceções específicas, jamais deixaremos esse processo totalmente nas mãos do software. As máquinas são muito mais poderosas que os humanos a detetar padrões e, por isso, a identificarem muito melhor ineficiências e potencialidades no código. E até serão mais rápidas a aprender sobre as alterações nesses padrões. Mas, como dizia Mitch Ratcliffe “Um computador permite cometer mais erros com mais rapidez do que qualquer outra invenção, com exceção talvez, das armas de fogo e da tequilha”.

 Engenharia e segurança

A engenharia tem sido ao longo dos séculos o garante da segurança nos diversos saltos tecnológicos. A energia elétrica, que vitimou muitas pessoas no século passado, é hoje companheira diária imprescindível de todos nós. Os disjuntores, os cabos plastificados antifogo e as regras de construções de edifícios e máquinas demoraram algum tempo a serem adotados mas, atualmente, salvo raras exceções, todos os mecanismos de segurança são implementados corretamente e auditados regularmente. E todos vivemos mais confortavelmente. Na IA o percurso será idêntico.

 Na engenharia civil, há mesmo um chamado “coeficiente de segurança”, que se usa nos cálculos, de forma a evitar qualquer tipo de acidente. Também na IA se pode usar o mesmo conceito e até deixar as máquinas tomarem decisões autonomamente, calculando os prejuízos resultantes de algum mau funcionamento no processo de aprendizagem.

 No entanto, se se tratar de vida humana, o cenário muda de figura. Quando um automóvel trava abruptamente numa autoestrada a 120Km/h por causa de um saco de plástico a voar que se atravessa no seu caminho, pode ser tarde para aprender (machine learning) a não travar numa próxima vez.

IA sim mas com engenharia e segurança.

 Ética digital

Segundo o futurólogo Gerd Leonard, este é o tema do ano. No seu livro “Tecnologia versus Humanidade” ele aborda os principais pontos a acautelar de forma a que as máquinas, por via da sua maior inteligência não venham a afetar o conforto e a segurança humana. E defende a criação de organismos reguladores da IA antes que seja tarde de mais.

 Caminhamos a passos largos para uma sociedade de maior lazer, onde as máquinas realizarão todas as tarefas humanas repetitivas e enfadonhas. É necessário preparar melhor a nova geração para esse novo ambiente. O estudo citado acima da IE University, realizado em sete países (França, Alemanha, Irlanda, Itália, Espanha, Holanda e Reino Unido) revela que 67% dos europeus acham que os maiores desafios que a UE enfrenta atualmente são a gestão das alterações climáticas e das novas tecnologias. 40 % pensam que a empresa onde trabalham atualmente vai desaparecer nos próximos 10 anos, se não fizer mudanças rápidas profundas. E mais de 70% acreditam que os governos devem tomar fortes medidas políticas para limitar a automação nas empresas e enfrentar os seus efeitos socialmente negativos.

 A questão é que todas as entidades reguladoras correm o elevado risco de serem ineficientes e um travão à inovação e, por isso, sem prejuízo de acautelar as questões éticas e jurídicas a quem sabe, a melhor solução passará por confiar este assunto aos bons engenheiros. E punir severamente todas as más práticas da IA.

Assim podemos provavelmente ir muito mais longe, mais rápido, confiando na engenharia de software, como o garante da implementação de todas as normas de ética e segurança, disfrutando de todo o potencial da IA.

Artigos relacionados

O seu comentário...

*

Top