Por Stan Gibson
Max Chan sabia que tinha de fazer algo. Pouco depois de o ChatGPT ter aparecido em cena em novembro de 2022, Chan percebeu que a IA generativa seria muito mais do que apenas a mais recente moda tecnológica passageira.
Com a capacidade de absorver instantaneamente enormes quantidades de dados usando modelos de linguagem grandes (LLM), tecnologias de IA generativa como o ChatGPT da OpenAI e o Bard da Google podem produzir relatórios, contratos e código de aplicações que ultrapassam em muito as tecnologias anteriores em termos de velocidade, precisão e minúcia. Resultado: ganhos de produtividade dramáticos e potencialmente uma vantagem comercial que pode alterar o jogo.
“Os funcionários vão usar isto. Se não fizermos nada, não terão outra escolha senão usá-lo por conta própria”, diz Chan, CIO da Avnet, um fornecedor de peças e serviços de tecnologia.
Michele Goetz, vice-presidente e analista principal da Forrester Research, concorda. “Existe o medo de ficar para trás. Mesmo que diga ‘não usem isto’, os seus funcionários ou clientes vão usá-lo”, diz ela. “A caixa de Pandora foi aberta, por isso é melhor colaborar com os seus funcionários para que não tenham de esconder o que estão a fazer.”
Apesar da sua promessa imensa, a IA generativa pode expor informações sensíveis e proprietárias ao público. Isso pode levar a propriedade intelectual comprometida e penalizações regulatórias. Além disso, os resultados da IA generativa podem por vezes ser tremendamente erróneos, resultando em “confabulação” ou “alucinação”. E como os modelos de IA generativa recorrem a várias fontes, a incorporação da saída da IA generativa no conteúdo corporativo de uma organização poderia levar a violações de direitos de autor.
Alguns desses perigos foram percebidos em abril de 2023, quando funcionários da Samsung acidentalmente divulgaram dados internos sensíveis no ChatGPT, levando a empresa a proibir temporariamente o uso de tecnologia de IA generativa pelos funcionários – um incidente que alertou os líderes de TI para a iminente ascensão da IA sombria que poderá em breve se instalar nas suas organizações se não agirem preventivamente.
Estratégia de Dupla Via
Com essas apostas em jogo, adotar uma abordagem de não intervenção era impensável para Chan. Em vez disso, ele está a implementar uma estratégia de dupla via: limitar a utilização da IA generativa através de políticas rigorosas, ao mesmo tempo que desenvolve rapidamente e testa aplicações aprovadas e seguras.
“Se alguém quiser experimentar, tem de apresentar um pedido e nós temos de analisá-lo, e trabalharemos com eles para criar um produto mínimo viável”, explica ele. O MVP pode, por sua vez, evoluir para um teste de conceito (PoC) e, a partir daí, normalmente com a ajuda de um parceiro estratégico, para uma implementação em produção. Essas primeiras aplicações estão agora quase prontas para serem lançadas. “Até o final do ano, estaremos definitivamente em produção com algumas delas”, diz Chan.
Outros CIOs adotaram estratégias semelhantes. “A nossa abordagem é de interesse cauteloso”, diz Robert Pick, vice-presidente executivo e CIO da Tokio Marine North America, uma seguradora multinacional com sede no Japão. Embora Pick incentive os funcionários da companhia de seguros a experimentar, ele insiste que as suas atividades sejam monitorizadas.
“No setor de seguros, lidamos constantemente com dados – incluindo dados de terceiros – o que é diferente de algumas indústrias. Temos alguma confiança na ideia de que os nossos dados vão a algum lugar para serem processados e depois voltam. Se fornecermos às pessoas as ferramentas e orientações certas, elas tomarão a decisão certa”, diz Pick.
Apesar dos melhores esforços de Chan e Pick, a Gartner prevê que será impossível evitar o uso não autorizado. A consultoria previu em março de 2023 que até 2026, 5% dos funcionários se envolverão em uso não autorizado de IA generativa nas suas organizações. “Se algo, 5% é uma estimativa conservadora. Recebo chamadas todos os dias de pessoas querendo saber como impedir que os seus funcionários usem o ChatGPT”, diz Avivah Litan, vice-presidente analista distinta na Gartner.
Os CIO percebem que, a menos que implementem rapidamente políticas que permitam e até encorajem o uso da IA generativa para alguns fins, perderão o controlo sobre uma tecnologia transformadora nas suas organizações.
De acordo com a IDC, os CIO saíram das margens e agora estão a liderar a marcha. Em março de 2023, 54% disseram que ainda não estavam a fazer nada em relação à IA generativa, mas em junho de 2023, apenas 23% fizeram essa admissão [ver gráfico]. “Em alguns casos, as pessoas estão a bloquear; em outros casos, estão a adotar políticas; e em outros casos, estão a realizar pilotos intencionais”, diz Daniel Saroff, vice-presidente do grupo de consultoria e pesquisa da IDC.
Hackathon revela vulnerabilidades
Na Parsons Corp., uma fornecedora global de soluções nos mercados de segurança nacional e infraestrutura crítica, os primeiros casos de IA sombria desencadearam uma conversa entre Karen Wright, vice-presidente de estratégia de TI, produtos e comercialização, e o seu homólogo de cibersegurança na Parsons. Isto ocorreu após um hackathon com o ChatGPT para identificar riscos de segurança. “Foi uma abordagem realmente boa para compreender as implicações da tecnologia”, diz Wright.
O hackathon mostrou a Wright e aos seus colegas líderes de TI na Parsons que o ChatGPT não era qualitativamente diferente de algumas ferramentas baseadas na web que os funcionários já estavam a usar, como os serviços online do Adobe Acrobat, nos quais os dados são enviados para fora de uma organização para serem processados. Como resultado, a Parsons optou pelo uso de ferramentas de prevenção de perda de dados (DLP) para evitar a exfiltração de dados através da IA generativa.
“O nosso foco é abraçar e acelerar o uso de inteligência artificial inteligente, ao mesmo tempo que a gerimos com ferramentas DLP para garantir a segurança”, diz Wright.
A educação também desempenhará um papel crítico no controlo da IA generativa na Parsons. “O nosso foco é educar os funcionários sobre as melhores práticas e ferramentas para alcançar os seus objetivos ao mesmo tempo que protegem a empresa”, diz Wright.
Compreender o risco é fundamental para as seguradoras
Como seguradora global com presença em muitos países, as unidades internacionais da TMG têm vindo a experimentar a IA generativa. “Vimos uma quantidade tremenda de experimentação pessoal a decorrer. Mas, porque estamos cientes dos riscos, não houve uma corrida para colocar tudo no ChatGPT. A reação foi rápida e clara: educação e monitorização”, diz Pick.
A TMG criou grupos de trabalho dentro das suas várias empresas para examinar casos de uso, como a redação de cartas e conteúdo de marketing, para dar aos humanos uma vantagem no processo, de acordo com Pick. Outro possível caso de uso da IA generativa é permitir que as diversas unidades de negócios redijam relatórios sobre as condições de mercado e desempenho.
“Qualquer empresa com muitas unidades de negócios pode beneficiar da capacidade da IA generativa de resumir informações”, observa Pick. “Resumir um manual de subscrição em linguagem simples pode levar segundos ou minutos para chegar a um primeiro rascunho, em vez de dias ou semanas”, diz ele. “Isso permitirá que utilizemos os nossos recursos humanos de forma mais eficiente no futuro.”
Além de absorver e gerar conteúdo escrito, a IA generativa mostra um grande potencial no desenvolvimento de aplicações, segundo Pick. A capacidade de traduzir quase em tempo real um procedimento armazenado de uma linguagem para outra com uma taxa de precisão de talvez 60%, incluindo comentários, aumentará significativamente a eficiência dos programadores, afirma. “Um programador poderia demorar semanas para fazer o mesmo. Isso renderá dividendos ao longo dos anos”, diz Pick.
Além disso, o uso de LLM privados é imediatamente atrativo para uma seguradora como a TMG. “Existe a esperança de que ele possa detetar coisas que os humanos não notariam. Também estamos interessados em ‘pequenos LLM’, se conseguirmos chegar a esse estado, porque não seria necessário um centro de dados na nuvem. Em vez disso, usaríamos áreas isoladas para proteger os dados”, diz Pick.
Mas mesmo com LLM privados, a regulamentação entra em jogo, diz o CIO. “Para uma empresa global como a TMG usar um LLM privado, os dados teriam de ser carregados num sistema de cliente que está dentro da área regulamentada por regulamentos específicos, como o RGPD na Europa”, explica ele.
Construindo com base em PoC
A busca de Chan pela segurança e oportunidade mostra promessa em vários PoC. “Estamos a treinar o Azure OpenAI com todas as informações do produto que temos, para que uma pessoa de negócios possa fazer uma pesquisa rápida para encontrar um conector específico e receber vários exemplos, incluindo quais estão em stock. Poupa tempo, pois as pessoas já não precisam de ligar à equipa de materiais”, diz Chan.
O Azure OpenAI também gera contratos personalizados rapidamente. “Ao carregar os últimos 10 anos de contratos no repositório, podemos dizer: ‘Preciso de um contrato para um projeto específico com determinados termos’, e ele apresenta um contrato completo em segundos”, diz Chan. Os executivos de vendas podem então rever e ajustar o contrato antes de o enviar ao cliente. A rápida resposta deverá resultar em conversões mais rápidas de potenciais clientes em vendas, bem como em clientes mais satisfeitos.
O processo é semelhante com pedidos de propostas (RFP), nos quais os analistas de negócios especificam o que precisam e a IA generativa cria o RFP em segundos. “O analista de negócios apenas revê e faz alterações. Isso é uma grande vantagem em termos de produtividade”, diz Chan. Os engenheiros também podem recorrer à IA generativa para propor possíveis soluções para as exigências dos clientes, como reduzir a pegada física de uma placa de circuito substituindo certos componentes na lista de materiais, ao mesmo tempo que encurta o tempo de colocação no mercado. “Ele devolverá opções. Isso é enorme em termos de valor”, diz Chan.
Um desafio que vale a pena enfrentar
Em geral, os CIO estão a descobrir que os benefícios da produtividade da IA generativa justificam os desafios do controlo. “Certificamo-nos de que os dados da empresa estão seguros, mas a IA não carece de capacidades para que os funcionários de TI e de negócios possam inovar”, diz Chan.
De acordo com Pick, a IA generativa não tornará os trabalhadores humanos obsoletos, apenas mais produtivos. “Não a vemos como uma tecnologia de substituição de pessoas. Ainda precisa de um cuidador humano”, diz ele. “Mas pode acelerar o trabalho, eliminar o trabalho monótono e permitir que os nossos funcionários façam coisas de uma ordem superior, para que possamos direcionar os recursos humanos de forma mais aguda no futuro.”
Mais importante ainda, Pick diz que a IA generativa tem muito mais potencial do que as tecnologias muito badaladas do passado. “Isto não é a próxima blockchain, mas algo que realmente será valioso.”
Para extrair esse valor, Goetz da Forrester diz que estabelecer políticas para a IA generativa é uma questão de estabelecer diretrizes claras. Ela recomenda, tal como Chan, seguir uma estratégia de dupla via em que aplicações e conjuntos de dados de IA generativa aprovados são disponibilizados aos funcionários, enquanto as aplicações e casos de uso de IA que possam colocar dados em risco são proibidos. Seguir as diretrizes, segundo Goetz, tornará possível o uso seguro e de autoatendimento da IA generativa numa organização.
Entretanto, ao desenvolver ou implementar capacidades de IA generativa, Saroff da IDC recomenda avaliar os controlos implementados pelas ferramentas de IA generativa, bem como os riscos não intencionais que podem surgir do uso dessas ferramentas de IA.