6 verdades incómodas que o TI precisa de aceitar

O departamento precisa de aprender a adaptar-se aos contratempos inevitáveis associados ao aumento do uso de TI “sombra”, as deficiências da cloud computing, falhas de segurança, entre outras situações.

Pode ser difícil admitir que se perde o controlo sobre a forma como a organização implanta tecnologia, que a segurança da rede de comunicações é porosa e tem software mal desenvolvido. Ou que a quantidade de largura de banda nunca chega e a cloud não é a melhor solução em todas as situações.

Num mundo onde qualquer pessoa com um cartão de crédito pode activar o seu próprio centro de dados, os CIO tendem a sentir-se irrelevantes e redundantes. Não significa que tenham de desistir. Devem preocupar-se com o que pode mudar e precisam de aceitar seis verdades incómodas.

“TI sombra” saíram da “penumbra”

Há cinco anos uma das maiores dores de cabeça dos gestores de TI era lidar com a tendência “Bring Your Own Device”, materializada sobretudo no uso de smartphones pessoais para processos de trabalho. Agora, com alguns cliques e um cartão de crédito, os trabalhadores de uma empresa podem obter os seus próprios centros de dados, em cloud.

A “BYOD tornou-se BYOIT”, diz Mike Meikle, CEO da secureHIM, uma empresa de formação em cibersegurança. “Os funcionários podem montar várias soluções de TI, desde aplicações para armazenamento, com alguns cliques de botão, e depois aceder a essas plataformas a partir de seus dispositivos móveis”.

Mas a definição de “sombra IT” mudou ao longo do tempo, diz Bobby Cameron, vice-presidente da Forrester Research. Costumava significar que as equipas de engenharia montavam um servidor num armário, para projectos paralelos de inovação radical.

Agora, isso significa que a equipa de vendas e marketing pode subscrever serviços de software ou de servidores em cloud sem pedir permissão. Mas isso não significa que o departamento de TI deva simplesmente afastar-se.
“Tem a ver com o empoderamento digital e é liderado pelos utilizadores/cliente”, diz Cameron. “O departamento ainda precisa de saber o que está a ser usado e moldar o que se entrega para combinar com isso”.

O trabalho do gestor de TI passou a ser o de oferecer orientação sobre os serviços que devem ser usados, diz Steven A. Lowe, consultor principal da ThoughtWorks. “O problema não é o controlo”, argumenta ele. ” O TI perdeu o controlo há anos e não conseguiu recuperá-lo. A questão é de relevância estratégica: usa o conhecimento sobre TI para ajudar o negócio a tomar melhores decisões sobre aplicações e serviços de fornecedores terceiros”.

Não se pode recorrer à cloud para tudo

Há seis anos, mais de 40% dos CIO questionados ​​pela Gartner acreditavam que estariam a gerir a maior parte das suas operações de TI na cloud por esta altura. Embora a grande maioria das organizações à escala mundial administre alguns sistemas críticos para o negócio na cloud, a migração total ainda é relativamente incomum.

Em vez disso, a Gartner prevê agora que 90% das organizações adoptarão uma infra-estrutura híbrida até 2020, mantendo alguns recursos de TI “em casa”, enquanto coloca outros em fornecedores de cloud pública ou privada.

Não há dúvida de que a cloud teve um impacto drástico nas operações de TI, mas nem sempre correspondeu ao “hype”. Um estudo de Junho de 2017 sobre 300 profissionais de TI revelou que 80% dissere que a nuvem não estava a corresponder às suas expectativas devido a problemas com segurança, conformidade, complexidade e custo. E de acordo com uma pesquisa realizada em Janeiro de 2017 pela empresa de gestão de cloud, RightScale, 30 a 45% das clouds corporativas são desperdiçadas.

Isso ocorre porque muitas empresas se moveram por reflexo para a cloud sem entender claramente o porquê ou como fazê-lo, diz Lowe. “Simultaneamente, mover um serviço crítico para a cloud não o torna mais confiável ou expansível”, alerta.

“Para realmente aproveitar a cloud, o software precisa de ter arquitectura e implantação diferente, usando micro-serviços em vez de monólitos”. E algumas organizações que pensavam que podiam mover todas as suas aplicações legadas para máquinas virtuais na cloud tiveram um despertar difícil, acrescenta Tom Mainelli, vice-presidente da IDC.

“Provavelmente uma empresa nunca estará completamente livre de aplicações proprietárias antigas usadas todos os dias”.

Os seus sistemas já sofreram intrusões

É um dado adquirido que a segurança da rede corporativa já foi comprometida e os seus dados estão ou estiveram em risco. A situação só está a piorar. As fugas de dados aumentaram 40% durante 2016, segundo o Identity Theft Resource Center.

A questão passa por perceber o que se pode fazer sobre isso? Muitas empresas respondem investindo em dispositivos de segurança de rede. “Toda a gente quer sistemas fáceis de gerir e difíceis de violar”, diz ele.

“Mas costumam acabar com enormes equipamentos de segurança difíceis de gerir e dados confidenciais que permanecem desprotegidos. Uma abordagem mais inteligente é assumir que o seu ambiente de TI já foi comprometido e projectar o seu plano de segurança em torno disso”. Em vez de tentar proteger redes e dispositivos, as organizações de TI inteligentes concentram-se em garantir a segurança dos dados nos equipamentos terminais, diz Mainelli.

“Obviamente, não se quer que as suas redes ou equipamentos terminais sejam comprometidos, mas o que acontece quando alguém conecta uma unidade USB à rede”, questiona. “Os dados críticos em que a empresa se baseia estão em segurança? O que acontece quando circulam de e-mail para e-mail ou de disco rígido em disco rígido?”

A segurança ficou pior, em parte, porque há mais dispositivos e mais dados para proteger, diz Cameron. Mas as tecnologias, como os “containers” baseados em tecnologia da Docker, para dados em cloud e detecção automatizada de falhas por inteligência artificial, ajudam a mitigar o problema.

Software com segurança desactualizada

O software no qual as correcções de segurança não foram aplicadas é um enorme risco de segurança e conformidade. Um relatório de Maio de 2016da Duo Labs, afirma que um em cada quatro sistemas de negócios estava em risco devido a software desactualizado.

“Nós tempos clientes que não conseguem acompanhar os ‘patches’, que estão a aumentar rapidamente e demoram mais a ser aplicados”, diz James Lee, vice-presidente executivo e CMO da Waratek, uma empresa de segurança de aplicações. “A isso junta-se a situação da combinação com aplicações legadas que não podem ser actualizadas ou protegidas sem serem reescritas ou substituídas”.

Pior, acrescenta Lee, a segurança é muitas vezes uma prioridade menor para os programadores de software, incentivados a enfatizar os recursos e entregar o código no prazo e orçamento previstos. Como resultado: o software está cada vez mais vulnerável a ataques.

O problema decorre de não se fazer um verdadeiro controlo para garantia da qualidade do software, defende Mark S. Kadrich, CISO interino no hospital comunitário Martin Luther King Jr. em Los Angeles.

“Eu estive no sector o tempo suficiente para saber que, se estou a perder o sono por uma falha na tecnologia, estou na indústria errada”, sustenta. “80% do software é uma porcaria, enquanto 20% remedeia. Há muito pouco [software] passível de ser considerado bem projectado”.

A sua recomendação: supor que o software falhará e planear para o pior cenário.

“Sabe-se que o software falhará e haverá intrusões. E por isso eu planeio para o fracasso. Eu faço a rede falhar e vejo quanto tempo demora a detecção e recuperação, para implementar os meus procedimentos de acordo com isso”.

Nunca a empresa terá largura de banda suficiente

É quase inevitável: assim que se termina de instalar um anel de rede com 100 gigabits em torno do seu campus empresarial, um administrador brilhante decide que é precisam transmitir todos os vídeos de formação e marketing em formato 4K.

“Não importa quão veloz se torna a Internet, continuamos a enviar ficheiros maiores através da rede até que ela fique obstruída”, diz Simon Jones, especialista da Cedexis para serviço de entrega de aplicações, uma plataforma de aplicações definida por software.

Graças ao influxo de dispositivos móveis e IoT, espera-se que a quantidade de dados a fluir nas redes empresariais mais do que duplique até 2021, de acordo com a Cisco.

A boa notícia é que as empresas estão a melhorar a gestão inteligente do congestionamento da rede, acrescenta Jones.

“A telemetria, o processamento de dados e a IA estão a evoluir tão rapidamente que, evitando desacelerações, tornou-se mais fácil de automatizar”, diz ele. “A gestão do tráfego de Internet funcionará muito, como o Waze [app de georreferenciação] funciona para os condutores: com a inteligência disponível para encontrar todas as rotas possíveis para contornar o congestionamento”.

Departamento de TI mantém-se relevante caso se adapte

Apesar da explosão dos serviços de TI em modelo de self-service, a experiência com as TI ainda é altamente avaliada nas organizações. Mas os profissionais de TI precisam de melhorar a sua proposta, melhorar competências novas e estar dispostos a aceitar alguma ajuda de robôs.

Os profissionais de TI bem-sucedidos são bons em adaptar-se às mudanças, diz PK Agarwal, CEO da Northeastern University-Silicon Valley. Há alguns anos, os profissionais de TI falavam de gestão de dados e desenvolvimento. Agora falam sobre o IoT e o DevOps. Os tópicos podem mudar, diz Agarwal, mas as competências não.

“Os líderes de TI actuais precisam de confiar mais em competências sociais e inteligência emocional, para poderem desenvolver conversas complexas sobre a colisão da transformação digital com o ambiente de sistemas legados”, considera. “O aumento da automação e do ‘self-service’ significa que os profissionais de TI precisam de estar mais comprometidos do que nunca com a aprendizagem ao longo da vida”.

A automação orientada por IA mudará a entrega de tecnologia de maneira significativa, eliminando as tarefas repetitivas e de baixo valor acrescentado. Ao mesmo tempo tende a melhorar a capacidade dos profissionais de TI na extracção de significados sobre grandes quantidades de dados, considera Isabelle Dumont, vice-presidente da Lacework, uma empresa de segurança na cloud.

“A segurança na cloud é um bom exemplo em que a aprendizagem automática pode aumentar a capacidade de TI”, defende. “Da detecção de intrusão à análise de investigação, a pode servir a compilação e análise de milhares de milhões de eventos e à produção mais rápida de milhares de máquinas virtuais, do que por qualquer humano, de modo que as equipas de TI se possam concentrar nos assuntos mais importantes”.

Ainda assim, a responsabilidade recai sobre os CIO para superar o estigma do departamento TI visto como um centro de custo e o dos profissionais da tecnologia, apontados como anotadores de solicitações, adverte a Lowe. “Se quer ser tratado como um parceiro estratégico, deve agir como um parceiro estratégico”, diz ele. “Isso pode tornar algumas conversas incómodas, mas somente incluindo o TI no pensamento estratégico a montante, poderá haver impacto e mudar a percepção para uma parceria”.

*Com Dan Tynan, da Infoworld.

Autores

Artigos relacionados

O seu comentário...

*

Top