IA e robótica exigem maior e melhor governação

O Global Risk Report 2017, do World Economic Fórum, aponta as principais tendências que irão moldar o desenvolvimento global nos próximos 10 anos. Uma das conclusões assinala que a sociedade não acompanha o ritmo da mudança tecnológica.

Inteligência artificialA inteligência artificial (IA) e a robótica foram identificadas como as tecnologias que têm o maior potencial de consequências negativas e exigem maior e melhor governação.

As conclusões são da análise de 12 tecnologias emergentes distintas realizada no âmbito do Global Risks Perception Survey que integra o Global Risks Report 2017, elaborado pela Marsh para o Fórum Económico Mundial (World Economic Forum).

A propensão da quarta revolução industrial para exacerbar os riscos globais é analisada neste âmbito. A IA e a robótica, apesar do seu potencial para impulsionar o crescimento económico e de resolver desafios complexos, são também identificadas como o principal motor de risco económico, geopolítico e tecnológico entre as 12 tecnologias.

A título de exemplo,vivemos em tempos de ruptura, onde o progresso tecnológico também cria desafios, recorda a Marsh. Sem a devida governação e requalificação dos trabalhadores, a tecnologia acabará por eliminar postos de trabalho mais rapidamente do que os irá criar.

“Os governos já não conseguem oferecer os níveis históricos de protecção social e uma narrativa anti-sistema ganhou força, com novos líderes políticos a culpar a globalização pelos desafios da sociedade, criando um ciclo vicioso em que o menor crescimento económico só aumentará a desigualdade. A cooperação é essencial para evitar a deterioração das finanças públicas e a exacerbação da agitação social”, assinala Cecilia Reyes, Chief Risk Officer da Zurich Insurance Group.

Por seu lado, John Drzik, presidente de Global Risk & Specialties da Marsh, assinala que: “a IA tem potencial de oferecer benefícios enormes em sectores desde o de fabrico e transportes, até aos serviços financeiros e saúde. No entanto, uma maior confiança na IA irá criar novas ameaças e intensificar as já existentes”, tais como “a instabilidade social, tornando crucial o desenvolvimento paralelo de governação de risco”.

No global, o relatório resume as análises de 750 especialistas que avaliaram 30 riscos globais bem como 13 tendências subjacentes.

“O relatório tem vindo, ao longo dos anos a apontar factores de risco que podem ser detidos ou invertidos através da construção de sociedades mais inclusivas, para as quais a cooperação internacional e o pensamento a longo prazo são vitais” explica a informação que acompanha o relatório.

A nota de imprensa exemplifica: em 2006, o Global Risks Report alertou para o facto de a “eliminação da privacidade reduzir a coesão social”. Na altura, isso foi classificado como um pior cenário, com uma probabilidade de menos de 1%.

Em 2013, muito antes da “pós-verdade” se tornar a palavra do ano de 2016, o Global Risks destacou “a rápida disseminação da desinformação”, observando que a confiança estava a ser corroída e que eram necessários melhores incentivos para proteger sistemas de controlo de qualidade.

O ano passado, 2016, será “recordado por resultados políticos drásticos, que contrariaram as expectativas de consenso, os sinais de alerta que um conjunto persistente de riscos sociais e económicos poderiam transformar-se numa ruptura do mundo real. Estes foram “permanentemente identificados” no Global Risks Report durante os últimos dez anos.

Ambiente domina “Global Risks Report 2017”
O “Global Risks Report 2017” apresenta um conjunto de tendências para 2017 onde se destacam as alterações climáticas, a desigualdade de rendimento e a polarização social no topo da lista. Pela primeira vez, “todos os cinco riscos ambientais estão entre os riscos mais prováveis e impactantes no mundo. Este relatório de riscos será analisado durante o World Economic Fórum, entre 17 de 20 de Janeiro que tem este ano como tema, a liderança responsável e com capacidade de resposta adaptativa.

Autores

Artigos relacionados

O seu comentário...

*

Top