Como vai ser o negócio dos centros de dados em 2017

Segurança, disseminação da IoT, sustentabilidade e procura por soluções DCIM são alguns dos desafios e tendências que vão determinar os novos caminhos do mercado.

Há avanços na computação em nuvem e isso cria desafios e oportunidades para as empresas que utilizam estas soluções e serviços, diz Gary Niederpruem, CMO da Vertiv.

“Em 2016, focámo-nos em tendências disruptivas, como novos modelos de cloud computing e no papel da responsabilidade social”, embora agora mais focados “na infra-estrutura crítica que ajuda empresas de computação em nuvem, ‘colocation’ e ‘edge computing’ a adaptarem-se às mudanças esperadas para 2017 e adiante”, comenta o executivo.

A empresa divulgou seis desafios e tendências de infra-estrutura de centros de dados que acredita merecerem atenção em 2017.

1. A infra-estrutura espalha-se para suportar a vanguarda da conectividade
A TI distribuída e a Internet das Coisas (IoT) industrial estão a aproximar os recursos de TI dos utilizadores em localizações remotas e em instalações industriais. Embora o “data center” tradicional se mantenha fundamental para a distribuição de aplicações e serviços, cresce a cada dia a importância dos micro-“data centers” e dos “network closets” (espaços onde equipamentos de rede geridos e operáveis remotamente são instalados). Esta tendência é confirmada pela crescente proliferação de sensores IoT e outros dispositivos que exigem acesso mais rápido à informação.

Em resposta a essas mudanças, as organizações vão voltar-se para soluções pré-configuradas de micro-“data centers” que suportam implementações rápidas. Outras respostas são a maior normalização e a gestão remota em localizações de TI distribuídas. De destacar ainda que a normalização e a modularidade estão a tornarem-se tão importantes nas localizações de TI distribuídas quanto são nos grandes centros de dados.

A disseminação de sensores IoT por lugares que, no passado, não contavam com tanta infra-estrutura de tecnologia, está a levar os gestores a reavaliar a situação dos “network closets” actuais e localizações remotas de TI. Passa a ser essencial assegurar que os suprimentos de energia e refrigeração sejam adequados para atender à crescente criticidade dessas localizações.

2. A gestão térmica alinha-se à sustentabilidade
Nos últimos cinco anos, a refrigeração apresentou mais mudanças do que qualquer outro sistema de “data center”. Impulsionadas pelo desejo de reduzir os custos de energia, as abordagens tradicionais focadas em fornecer “refrigeração máxima” foram suplantadas por abordagens mais sofisticadas, empenhadas em remover o calor da maneira mais eficiente possível. O uso de tecnologias avançadas de economia e a contínua evolução dos controles térmicos inteligentes possibilitaram estratégias de gestão térmica altamente resilientes que suportam métricas PUEs (de “power usage effectiveness”) inferiores a 1,2.

Agora, enquanto a eficiência energética permanece uma preocupação fundamental, o consumo de água e o uso de compostos refrigerantes surgiram como considerações importantes em determinadas regiões geográficas. Graças à gama expandida de estratégias de gestão térmica hoje disponíveis, os operadores de “data centers” estão a personalizar a gestão térmica com base na localização do “data center” e na disponibilidade de recursos.

As tendências do mercado global mostram um aumento do uso de novas tecnologias alavancando a refrigeração evaporativa e adiabática que usa água para resfriar o ar circundante. Essas tecnologias estão a proporcionar uma gestão térmica altamente eficiente, fiável e económica.

Nas localidades em que a disponibilidade ou o custo da água são um problema, os sistemas de refrigeração sem água ganharam impulso.

Um sistema tradicional “open-loop” baseado em água gelada usa cerca de 15 milhões de litros de água para resfriar 1 MW de capacidade de TI em um ano. Novas tecnologias compreendendo economizadores de compostos refrigerantes bombeados que não usam água e não introduzem ar externo no “data center” economizarão mais de 4.000 milhões de litros de água na América do Norte em 2016.

3. A cibersegurança torna-se prioridade máxima na gestão do “data center”
Embora as violações de dados continuem a constituir a maioria das notícias relacionadas com a segurança, os problemas de segurança também passaram a afectar a disponibilidade do “data center”.

O estudo “Cost of Data Center Outages 2016“, realizado pelo Ponemon Institute, revelou que os ciberataques foram responsáveis por 22% das interrupções de operação de “data centers” estudados. Um exemplo disso é que, em Dezembro de 2015, um ciberataque à rede eléctrica na Ucrânia foi provocado por hackers que desativaram remotamente o sistema de “no-break”.

À medida que mais dispositivos são conectados para permitir uma gestão e automação simplificadas, as possibilidades de ameaça também aumentam. Os profissionais de “data center” estão a acrescentar segurança à sua crescente lista de prioridades e começando a procurar soluções que os ajudem a identificar vulnerabilidades e aprimorar a resposta a ataques. “Gateways” de gestão que consolidam dados de múltiplos dispositivos para suportar DCIM (“Data Center Infrastructure Management”) estão a surgir como potencial solução. Com algumas modificações, são capazes de identificar portas inseguras ao longo da infra-estrutura crítica e fornecem um alerta precoce de ataques de negação de serviço.

4. DCIM comprova o seu valor
O DCIM (ou sistema de gestão da infra-estrutura do centro de dados) continua a mostrar o seu valor. Essa visão vem tanto da sua capacidade de resolver problemas quanto pela sua capacidade de gerir o cada vez mais complexo ecossistema do “data center”. Gestores com visão de futuro estão a usar DCIM para atacar desafios do “data center”, tais como conformidade regulatória, suporte ao ITIL e gestão de ambientes híbridos. Além disso, o DCIM está sendo expandido além do “data center” nuclear para proporcionar gestão centralizada de localizações distribuídas. Finalmente, os fornecedores de co-locação estão a encontrar no DCIM uma valiosa ferramenta para analisar os seus custos por cliente e para fornecer aos seus clientes a visibilidade remota dos seus activos.

O DCIM surgiu como precursor da IoT no “data center”, fornecendo a visibilidade, a maior coordenação entre os sistemas e o suporte à automação que constituem o cerne da proposição de valor da IoT.

5. As alternativas para baterias de chumbo-ácido tornam-se viáveis
Novas soluções estão a surgir para o elo fraco nos sistemas de energia dos “data centers” à medida que os operadores tentam reduzir o “footprint”, peso e custo total das tradicionais baterias “Valve-Regulated Lead-Acid” (VRLA). A mais promissora delas é a das baterias de iões de lítio. Com os preços em queda, e as soluções químicas e de construção continuando a avançar, estas baterias estão a tornar-se uma opção viável para o “data center” e estão a ser escaladas para suportar exigências de “room-level”.

Embora esse tipo de baterias esteja no mercado há algum tempo, a melhora da relação custo/benefício desta tecnologia está a aumentar a disseminação dessas soluções na indústria dos “data centers”.

Além disso, o uso crescente de energias renováveis em grande e pequena escala está tornando as aplicações de armazenamento de energia cada vez mais atraentes para o mercado. Há muito tempo que os operadores de “data centers” têm interesse em alternativas às baterias VRLA, mas as tecnologias disponíveis não conseguiram igualar o valor e a capacidade de armazenamento das baterias tradicionais. Agora, estão a surgir alternativas reais capazes de reduzir o “footprint”, expandir os tempos de operação e aprimorar a sustentabilidade.

6. Projecto e implementação do “data center” ganham integração e aceleração
A integração da tecnologia tem crescido no espaço do “data center” há vários anos, à medida que os operadores procuram soluções integradas modulares, que possam ser rapidamente implementadas, facilmente escaladas e eficientemente operadas.

Em 2017, essa mesma filosofia deverá ser aplicada ao desenvolvimento de “data centers”. Actualmente, a velocidade de entrada em operação é um dos principais impulsionadores das empresas que desenvolvem o grande volume da capacidade dos “data centers”. As empresas já perceberam que o tradicional isolamento entre as fases de engenharia e construção é pesado e pouco produtivo. Como resultado, o mercado está abraçando uma abordagem “turnkey” para as fases de projecto e implementação de “data centers”. Trata-se de uma estratégia que tira o máximo proveito de projectos modulares integrados, construção “off-site” e gestão disciplinada de projecto. Fornecedores que usem conhecimentos em infra-estrutura, capacidades de projecto e engenharia e uma sofisticada gestão de projecto para fornecer uma capacidade “turnkey” conseguem construir “data centers” melhores em prazos mais curtos.

Fica claro, assim, a importância do mercado evoluir para alinhar-se a essas novas tendências. “Tirar vantagem dessas mudanças exige um parceiro de infra-estrutura com uma visão consultiva, com uma profunda compreensão de todos os aspectos das operações de ‘data centers’ e uma completa gama de serviços de projecto, gestão de projectos e manutenção”, realça Niederpruem.

Autores
Tags
O seu comentário...

*

Top