Quando as chamas que consumiram quase metade do complexo de data centers francês OVHCloud – o maior provedor de computação na nuvem da Europa –, foram controladas, na manhã do dia 10/03 deste ano, uma pergunta invadiu os pensamentos de gestores de tecnologia e CIOs das empresas pelo mundo afora: **será que a minha infraestrutura de TI está segura e livre deste tipo de catástrofe?**
Naquela altura, enquanto mais de 100 bombeiros faziam o rescaldo do fogo que consumiu por completo cinco pavimentos de um dos quatro centros de dados da planta em Strasbourg, o comitê gestor de risco da empresa francesa entrava em contato com os clientes – bancos, indústrias, varejistas online e órgãos governamentais de países como o Reino Unido, a Polônia e a própria França – para dar orientações quanto a implantação dos seus planos de recuperação de desastres (Disaster Recovery Plan). Foi uma noite longa e um dia seguinte tenso para tentar remediar o impacto de um evento que deixou dezenas de milhares de sites e aplicações inoperantes num piscar de olhos.
Passado mais de um mês do acidente, as causas do incêndio ainda não foram identificadas pela polícia local e isso tem feito aumentar o nível de inquietação de acionistas e stakeholders de companhias cujo core do negócio está intimamente ligado ao processamento de dados. A preocupação tem razão de ser: em um mundo cuja economia está cada vez mais **data centric,** proteger devidamente a integridade dos dados não é atributo, mas uma exigência de quem tem bilhões de dólares a perder.
Atestado de segurança
O justo anseio dos acionistas, CIOs e gestores de TI por disponibilidade junto às operações de dados pode ser atendido com certificações como a TIER.
Criada nos anos 1990 pelo Uptime Institute, a Certificação TIER já foi expedida mais de 1.700 vezes em 98 países. Ela avalia a topologia e a redundância da infraestrutura dos data centers para o enfrentamento de crises, acidentes e ameaças à disponibilidade. Quanto maior o nível da classificação, mais rápida é a capacidade de recuperação da atividade e menor o risco de downtime da infraestrutura de TI.
O padrão TIER é dividido em quatro categorias:
Tier I: Classificação Básica
– Ideal para pequenos negócios e onde a TI esteja focada nos processos internos;
– 99,671% de uptime (tempo de atividade);
– Não há exigência de redundância;
– 29 horas de inatividade por ano.
Tier II: Data Center Redundante
– Voltado para negócios cuja criticidade é maior, podendo não suportar indisponibilidades durante horário comercial;
– 99,749% de uptime;
– 22 horas de inatividade por ano;
– Redundância parcial em energia / climatização.
Tier III: Manutenção Concorrente
– Ideal para empresas que oferecem suporte 24×7, com recursos de TI que suportam processos de negócios automatizados;
– 99.982% de uptime;
– 1,6 hora de inatividade por ano;
Tier IV: Alta Tolerância a Falhas
– Foco nos negócios com exigência de disponibilidade do TI em qualquer cenário de incidentes técnicos e sem parada dos servidores;
– 99,995% de uptime;
– Redundância integral;
– Manutenção do data center sem interrupção;
– Sistema completamente automatizado, com redução do risco de falha humana;
Soluções modulares de TI como Salas Cofre, salas seguras e racks Edge, necessitam de nível TIER adequado para garantir a disponibilidade requerida dos servidores. Com relação a segurança física, outras certificações são requeridas como a NBR 15247 e EN 1047-2. Estas estruturas precisam atestar a sua capacidade de proteção física dos equipamentos no seu interior e, principalmente, das informações ali contidas diante de riscos variados – de incêndios a enchentes, acessos indevidos e sabotagens.
Resiliência
Naquela noite de quase primavera no leste da França, não foram apenas racks e servidores que se transformaram em cinzas. Viraram fumaça também algumas convicções que haviam se tornado tendência na indústria de TI nos anos recentes.
Uma delas diz respeito a concentrar toda a estratégia de processamento de dados em uma única solução. Sob o discurso da praticidade e de uma pretensa vantagem no investimento, esta vinha sendo uma visão adotada por muitas empresas e que, agora, passa a ser questionada.
Após o incidente na França, a busca por mais **resiliência** a partir de **infraestruturas de TI híbridas** ganhou fôlego. Argumentos a favor da **distribuição do processamento de dados** entre data centers próprios, serviços de cloud e edge computing – em prol da escalabilidade, flexibilidade e segurança – foram reafirmados diante do drama vivido pelos clientes da provedora francesa, que ficaram offline por semanas.
A TI híbrida tem essa qualidade de **criar redundância entre os sistemas, flexibilizando as cargas de trabalho e dando mais elasticidade à infraestrutura,** tornando-a apta a crescer em capacidade de processamento de dados quando necessário e garantir a disponibilidade dos ambientes de missão crítica mesmo diante de catástrofes.
Obter essa vantagem de resiliência implica em **investimentos na infraestrutura de data centers** – seja on ou off premise. Garantir que parte do processamento de dados das companhias fique próximo, com estruturas próprias ou dedicadas dentro de empresas com sólida experiência no setor, é ação importante para quem busca diversificar a distribuição dos workloads e assegurar que as suas operações estarão mais resistentes e disponíveis o tempo todo.
Camada interna
Outros fatores também podem colaborar com o aumento da segurança dos data centers e, por consequência, na alta disponibilidade das operações de missão crítica.
Quanto a infraestrutura de TI, contar **serviços de monitoramento especializado,** com capacidade para antecipar eventos – como falhas de componentes, sistemas ou mesmo alterações do clima – também são parte importante da estratégia de proteção dos centros de dados.
**Serviços continuados** de manutenção – 24x7x365, com intervenções inteligentes e coordenadas para maximizar a disponibilidade a partir de ações preventivas, preditivas, corretivas e evolutivas – precisam ser considerados para que pequenas distorções no funcionamento dos equipamentos não se tornem grandes obstáculos para a disponibilidade de toda a infraestrutura de TI.
Contar com **plataformas de gerenciamento remoto e Online,** que realizem o trabalho de forma remota e em *real time*, também configura uma vantagem estratégica. Poder antever situações de risco ou mesmo acionar os procedimentos de reparos de forma mais ágil é essencial para a continuidade da operação e para a contenção de danos.
O **monitoramento climático** é outra carta na manga para empresas que buscam preservar as atividades de seus ambientes de missão crítica. Receber informações sobre ocorrências como tempestades, descargas atmosféricas, enchentes, alagamentos, tornados, nevascas e até tsunamis é fundamental em tempos de mudanças bruscas na estabilidade do clima da Terra que podem simplesmente aniquilar por tempo indeterminado as operações de um data center.
Seja como for, independente da camada que se pretende proteger, a **segurança de um data center é valor inegociável.** Assim como na aviação, onde a redundância de sistemas impacta na resiliência de toda a aeronave, **a indústria de TI precisa investir em infraestruturas híbridas e sistemas de monitoramento** para assegurar 100% da disponibilidade das operações. Assim, da mesma forma que os passageiros de um voo confiam de que tudo vá funcionar corretamente – turbinas, flaps, dispositivos eletrônicos, trem de pouso… –, também os clientes precisam que os seus data centers estejam disponíveis quando solicitados, com as aplicações e informações sensíveis devidamente protegidas. Tudo para que os dados tenham uma boa jornada, viajando por entre core, a borda, os centros de dados e a nuvem.