É urgente reinventar o data center

A transformação digital está a impulsionar um crescimento exponencial nos dados, o que requere uma abordagem radicalmente nova para poder construir e escalar as infraestruturas de armazenamento do futuro.

Por Israel Serrano | Infinidat

Durante a última década, a explosão de dados no mercado de consumo tem estado a ser amplamente ultrapassada pelo crescimento dos dados no sector empresarial. Segundo dados de um estudo recente da IDC patrocinado pela Seagate, em 2025 os dados armazenados pelas organizações empresariais em todo o mundo alcançarão os 13,6 Zettabytes, deixando de representar cerca de 45% do total dos bytes instalados para ultrapassar os 80%. Isto apresenta desafios sem precedentes, mas também traz oportunidades tanto para as próprias empresas como para os fornecedores de serviços, que devem adotar uma nova abordagem para construir e escalar as infraestruturas de armazenamento. 

Um problema que já era esperado

Há já 20 anos, os tecnólogos da web da Costa Oeste dos Estados Unidos aperceberam-se que os arrays de armazenamento empresarial eram um beco sem saída. Os roadmaps dos fabricantes continuavam a referir os terabytes, enquanto os requisitos reais, devido às redes sociais e aos conteúdos gerados pelos utilizadores, já se contavam em Petabytes. Assim, decidiram deixar de adicionar hardware e começaram a construir o que necessitavam do zero, e tudo definido por software.

Hoje em dia, tecnólogos de todas as indústrias enfrentam a um dilema similar, como consequência do tsunami da transformação digital. Os arrays de armazenamento tradicionais, centrados no hardware, são dispendiosos, difíceis de gerir e com ordens de magnitude demasiado pequenas para a era dos dados que nos aguarda. O futuro pode estar no software.

Centros de dados à escala Petabyte: requisitos essenciais

A transformação digital está a aumentar exponencialmente as necessidades das infraestruturas de TI. A escala muda tudo e o armazenamento de dados, como base destas infraestruturas, não é uma exceção. A próxima geração de aplicações não pode ser construída sobre infraestruturas empresariais tradicionais, porque em muitos campos desaparecem as economias de escala e ressente-se a experiência do utilizador que os ambientes multi-Petabyte, radicalmente diferente do que as TI tradicionais da era dos terabytes, oferecem.

Armazenamento on-premise ou na cloud? A solução está no melhor de ambos

Embora a computação on-premise à escala Petabyte tenha um custo menor que a cloud pública, a verdade é que a cloud pública trouxe novos níveis de experiência do utilizador que os departamentos de TI das empresas devem igualar ou superar para responder às workloads das diferentes camadas do negócio. A solução não é escolher entre uma e outra, mas adotar o melhor de ambos mundos. Na camada da infraestrutura, isto significa oferecer um armazenamento de dados virtualizado rápido, fiável e on demand impulsionado por APIs e, em princípio, infinito. É evidente que os dados devem estar protegidos 7×24, e há que evitar que os utilizadores sejam afetados por procedimentos de controlo de alterações ou outros incómodos relacionados com as atividades de migração de dados executadas pelo fornecedor de cloud.

Armazenamento como serviço

Cada vez mais as empresas estão a abandonar o modelo CapEx (baseado na capitalização do hardware) para adotar modelos de pagamento por uso (OpEx) em busca de uma flexibilidade operativa e financeira. Mas, ao contrário dos fornecedores de cloud pública, os de infraestruturas on-premise historicamente têm sofrido para satisfazer essa procura, acabando muitas vezes por repercuti-lo no cliente através de complexos acordos de arrendamento ou requisitos de compromisso que comprometem essa flexibilidade.

Escalabilidade e agilidade

Os centros de dados operam geralmente em infraestruturas arrendadas ou capitalizadas durante períodos de três, cinco ou sete anos. Aproximadamente um ano antes, adquirem-se novas infraestruturas para que o pessoal se encarregue de migrar os dados e testar o novo sistema. Depois, os sistemas antigos são removidos ou relegados para workloads secundárias. As tecnologias mais recentes proporcionam o financiamento e a independência operacional necessários para mover os dados à vontade, permitindo que os recursos humanos mais valiosos se concentrem em criar novas fontes de receitas para a empresa em vez de se preocupar com os ciclos de vida do hardware ou com as migrações de dados.

Modelos operativos

Os conjuntos de dados à escala Petabyte requerem um modo de operação que proporcione independência para misturar workloads sem penalização no rendimento, na disponibilidade ou nos custos. A capacidade de armazenamento deve escalar à medida que crescem os conjuntos de dados ou se criam workloads temporárias, mas também se reduz à medida que se eliminam, se transformam ou se deslocam as aplicações e os utilizadores. Além disso, os clientes podem monitorizar e gerir todos os conjuntos de dados como uma só entidade.

Infraestruturas digitais como habilitador de receitas

A visão tradicional das infraestruturas de TI tem sido tipicamente como centro de custos, e a única forma de entregar valor ao negócio é melhorar continuamente a eficiência e, portanto, reduzir as despesas. Mas, na era moderna, a infraestrutura digital é um motor de receitas. A capacidade básica para adquirir maiores conjuntos de dados, armazená-los, organizá-los, processá-los e aprendê-los é uma fonte de vantagens competitivas que perdura, e que distingue os líderes do amanha dos que vão, entretanto, cair.

O futuro: Inteligência artificial e analítica levada ao extremo

Dito tudo isto, deveremos deduzir que o futuro está nos dados, e não no hardware que os suporta. O futuro, portanto, reside na gestão desses dados, e no horizonte aparecem tendências que estão a ser claramente apreciadas, com a inteligência artificial na dianteira. Um exemplo disso, é o que denominamos “cache neuronal”, que consiste em algoritmos de machine learning que localizam os padrões de acesso aos dados e atribuem recursos à medida do necessário, o que permite ao sistema decidir por si mesmo que dados são mais ou menos relevantes em função do uso que as aplicações de negócio fazem deles. Os dados utilizados frequentemente são armazenados automaticamente na RAM (muito mais rápida que os meios Flash), enquanto no Flash são armazenados os dados “quentes” e, por último, os dados que se utilizam com menos frequência serão armazenados em unidades SAS, muito mais económicas.

Definitivamente, o futuro está marcado pela transformação digital, e esta, por sua vez, exige tratar volumes de dados sem precedentes. Os Petabytes são os novos Terabytes. As empresas deverão potenciar a sua vantagem competitiva baseando-se nos dados, e a escolha de uma infraestrutura de armazenamento moderna e à prova de futuro, que cresça e que aprenda à escala multi-Petabyte é uma decisão crítica no presente que afetará decisivamente no futuro.

Autores

Artigos relacionados

O seu comentário...

*

Top