“Edge computing” na continuidade da cloud

O modelo serve sobretudo uma forma de agilizar o fluxo de tráfego de IoT, mas estende a acção da cloud computing em vez de a substituir, contrariando a previsão de alguns.

A “edge computing” permite que os dados produzidos ou recolhidos por rede de IoT sejam processados ​​mais perto de onde são criados em vez de terem de ser enviados através de longos segmento de rede para centros de dados ou plataformas de cloud computing.

Fazer essa computação mais próxima do extremo da permite que as organizações analisem dados importantes quase em tempo real. É uma necessidade de organizações de múltiplos sectores, desde a indústria fabril e transformadora, de serviços de saúde, telecomunicações e financeiro.

“Na maioria dos cenários, a presunção de que tudo estará na cloud acessível por uma conduta larga e estável entre a plataforma e o dispositivo terminal, simplesmente não é realista”, defende o português Helder Antunes, director sénior de inovação estratégica na Cisco.

O que é exactamente a “edge computing”?

A “edge computing” baseia-se é uma rede de micro-datacenters com topologia em malha “que processa ou armazena dados críticos localmente e envia todos os dados recebidos para um centro de dados central ou um repositório de armazenamento em cloud computing, com uma área de ocupação de menos de 30,5 metros quadrados”, de acordo com a IDC.

Refere-se tipicamente a casos de utilização de IoT, em que os dispositivos de extremo de rede recolhem dados ‒ às vezes quantidades massivas ‒ e enviam tudo para um centro de dados ou cloud para processamento. A “edge computing” faz a triagem dos dados localmente para alguns deles serem processados ​​localmente, reduzindo o tráfego de “backhaul” dirigido ao repositório central.

Normalmente, isso é feito pelos dispositivos de IoT que transportam os dados para um equipamento local que inclui conectividade, armazenamento e conectividade de rede, com formato pequeno. Os dados são processados ​​nos extremos das redes e, todos ou uma parte, enviados para a base central de processamento ou armazenamento num centro de dados, instalação remota ou plataforma de IaaS.

Modelo “anti-latência”

As implantações de “edge computing” são ideais para variedade de cenários. Um deles é quando os dispositivos de IoT têm má conectividade e não é eficiente estarem constantemente conectados a uma cloud central.

Outros casos de utilização têm que ver com o processamento de informações sensível à latência. A “edge computing” reduz a exposição ao risco de latência porque os dados não precisam de percorrer uma rede para um centro de dados ou cloud. Isso é ideal para situações na quais as latências de milissegundos podem ser insustentáveis, como nos serviços financeiros ou mesmo na indústria fabril.

Um exemplo é a situação de uma plataforma de petróleo no oceano, que possui milhares de sensores a produzirem grandes quantidades de dados, a maioria dos quais pode ser até inconsequente. Podem ser elementos que confirmem o bom funcionamento dos sistemas.

Esses dados não precisam necessariamente ser enviados através de uma rede, logo que sejam produzidos por isso o sistema de “edge computing” compila os dados e envia relatórios diários a um centro de dados central ou a uma cloud para armazenamento a longo prazo. Ao enviar apenas dados importantes através da rede, o sistema de “edge” reduz a quantidade de dados que atravessam a rede.

Outro caso de utilização é a implantação de redes 5G de nova geração por empresas de telecomunicações. Kelly Quinn, gestor de pesquisa na IDC,  prevê que conforme os fornecedores de telecomunicações introduzem infra-estrutura de 5G em suas redes sem fio, vão adicionar cada vez mais micro datacenters, integrados ou localizados de forma adjacente às torres.

Os clientes empresariais até poderão possuir ou alugar espaço nesses centros para fazer “edge computing” e ter acesso directo a um “gateway” na rede mais ampla do operador de telecomunicações, e o qual pode estar conectado a um fornecedor de cloud pública de IaaS.

“Edge” faz parte da “Fog computing”

À medida que o mercado de “edge computing” toma forma, existe uma importante designação relacionado com o extremo de rede que está a ganhar maior visibilidade: “fog computing”.

“Fog” refere-se às conexões de rede entre os dispositivos de extremo e a cloud. “Edge”está mais especificamente ligado aos processos computacionais realizados dos dispositivos terminais.

Assim, a “fog” inclui a “edge computing”, mas também a rede necessária para obter dados processados ​​no seu destino final. Os membros do OpenFog Consortium, organização chefiada pela Cisco, Intel, Microsoft Dell EMC e instituições académicas como as universidades de Princeton e Purdue, estão a desenvolver arquitecturas de referência para implantações de “edge” e “fog computing”.

Alguns já prevêem que a “edge computing” poderá substituir a cloud. Mas Mung Chaing, reitor da Faculdade de Engenharia da Universidade de Purdue e co-presidente do consórcio, acredita que nenhum modelo dominará só por si.

Em vez disso, haverá uma continuidade. A “edge computing” e “fog computing” são úteis quando a análise de dados de campo, em tempo real, é necessária.

Duas perspectivas sobre a segurança

Existem duas perspectivas sobre a segurança da “edge computing”. Alguns especialistas argumentam que a segurança é teoricamente melhor num ambiente de “edge computing”, porque os dados não precisam de viajar por uma rede.

E quanto menos dados houver num centro de dados empresarial ou num ambiente de cloud, menor será o número de dados vulneráveis se um desses ambientes for atacado. A outra perspectiva é que a “edge computing” é inerentemente menos segura porque os próprios dispositivos terminais podem ser mais vulneráveis.

Ao conceber qualquer implantação de “edge” ou “fog computing”, portanto, a segurança deve ser primordial. A cifra de dados, o controlo de acessos e o uso de VPNsão elementos importantes na protecção de sistemas de “edge computing”.

Termos e definições em torno da “edge”

Como muitas áreas de TIC, a “edge computing” tem o seu próprio léxico. Algumas breves definições:

Terminais: podem ser qualquer dispositivo que produza ou recolham dados, sensores, máquinas industriais;

“Edge” ou extremo da rede: depende do caso de utilização. Nas telecomunicações, o extremo da rede tanto pode ser um smartphone com uma torre celular. No sector automóvel, o extremo pode ser o automóvel. Na indústria fabril, será uma máquina ou chão de fábrica. E para um departamento de TI pode ser um portátil.

“Edge gateway”: dispositivo de memória tampão que separa o processamento de extremo, face ao resto da rede mais ampla. O “gateway” é no fundo uma janela para o ambiente maior.

“Fat client”: software cliente com capacidades de processamento de dados existente nos terminais, que se distingue de um “thin client”, equipamento apenas capaz de transferir dados.

Equipamento de “edge computing”: a “edge computing” utiliza uma variedade de equipamentos existentes e novos. Muitos dispositivos, sensores e máquinas podem ser preparados para funcionar num ambiente de “edge computing”, simplesmente tornando-os acessíveis à Internet.

A Cisco e outros fornecedores de hardware possuem uma linha de equipamentos de rede robustecidos para ambientes externos. Uma gama de servidores de computação, convergentes e até hardware centrado an capacidade de armazenamento, como o Snowball, da Amazon Web Service, podem ser usados ​​em implantações de “edge computing”.

“Edge computing” móvel: refere-se à construção de sistemas de “edge computing” em sistemas de telecomunicações, particularmente para cenários de 5G.

 

*Com Brandon Butler, da Networkworld.

Autores

Artigos relacionados

O seu comentário...

*

Top