Los datos, como los define la revista The Economist, son el petróleo de la economía digital. De ellos, empresas tecnológicas como Alphabet, Tencent y Facebook generaron más del 70% de sus ingresos en 2019 -según una encuesta de la alemana LSP Digital-. Hoy, con la aceleración del proceso de transformación digital, además de las big techs, también crece rápidamente el número de empresas, de los más diversos tamaños y actividades, capaces de explorarlas en la mejora de procesos, toma de decisiones y desarrollo de productos.
Pero, para que los datos se puedan utilizar de la mejor manera posible y se pueda acceder a ellos de forma rápida y segura, contar con un ambiente de TI bien planificado, seguro, disponible y sostenible marca la diferencia en la aceleración digital de las empresas.
En un mercado cada vez más digitalizado, en el que los clientes se han acostumbrado a tecnologías que generan mayor eficiencia, productividad e inteligencia para la operación, el almacenamiento y procesamiento de datos en entornos híbridos ha ido ganando espacio en el mercado. Sin embargo, este contexto de la Industria 4.0 exige el uso de soluciones diferentes y complementarias, ya sea el núcleo del data center, cloud, el IoT o el edge computing. Sin embargo, este «viaje digital híbrido» es una tarea delicada que requiere atención para mitigar los riesgos y evitar el »downtime» de las actividades.
Sin embargo, hay una serie de errores comunes y consejos útiles que se aplican a cualquier empresa a la hora de diseñar la estrategia para el ambiente de TI. Ignorar consejos básicos – como realizar un análisis previo de madurez de la infraestructura existente, definir la tecnología más adherida al negocio y elegir un socio agnóstico y capaz de aportar los cambios necesarios orientados a la economía digital – puede no ser un problema a corto plazo. Pero es un camino seguro hacia mayores costes y pérdidas, a medida que la empresa crece y madura tecnológicamente, a medio y largo plazo.
En la punta del lápiz
Con la expansión de la digitalización en el mercado, el uso de datos por parte de las empresas está creciendo exponencialmente. Según un estudio de Statista, se espera que el volumen aumente de 97 zettabytes este año a 181 zettabytes en 2025. En 2019, fueron 41 zettabytes. Con ello, en consecuencia, crece la necesidad de procesamiento, una tendencia que elevará el consumo de electricidad. Sin embargo, hoy en día, con los llamados green data centers, es posible mitigar no sólo las emisiones, sino también aumentar la eficiencia energética de las TI. En el caso de la energía, el descenso puede ser de hasta un 60% con el uso de nuevas tecnologías y enfoques multidisciplinares capaces de hacer más sostenible todo el entorno.
Errores comunes
A partir de la planificación inicial, también resulta más fácil evitar algunos escollos comunes para las empresas que descuidan la importancia de adoptar un plan orientado a la alta disponibilidad y la mayor eficiencia del centro de datos. Las más comunes son: migrar a la nube sin realizar un de los workloads; descuidar las acciones preventivas y predictivas para reducir los riesgos de inactividad; minimizar la importancia de contar con un servicio enfocado a la continuidad y longevidad de los equipos; y no contratar equipos cualificados y multidisciplinares.
A pesar de los costes iniciales de la inversión en un centro de datos on premise, esta estrategia genera importantes diferencias para la empresa al permitir la adopción de soluciones a medida destinadas a mejorar la gestión y la seguridad del ambiente de TI. Además, con un plan alineado con el negocio de la empresa, es posible implementar un viaje híbrido llevando a la nube sólo las cargas de trabajo que tienen sentido dentro del desempeño de la empresa, evitando así los costos que no tenían necesidad.
Según Gartner, la estrategia digital híbrida, que combina centros de datos on premise, edge y en cloud computing, predominará en el mercado de aquí a 2024. El año pasado, sólo el 15% de las empresas adoptaron esta actuación digital. Sin embargo, se estima que en dos años el porcentaje alcanzará el 60%.
También hay costes operativos, que implican desde la puesta en marcha del centro de datos y las soluciones orientadas a la protección de datos, hasta la contratación de servicios orientados a la alta disponibilidad y el aumento de la eficiencia energética. Estos gastos incluyen equipos cada vez más cualificados y capacitados para trabajar con plataformas inteligentes y operación remota, además de la necesidad de contratar servicios 24x7x365 para evitar cortes en el ambiente de TI que puedan perjudicar el negocio de la empresa.
Uno de los errores recurrentes en las empresas sin una estrategia de TI adecuada es la falta de acciones preventivas. Los tiempos de downtime del sistema y las paradas no programadas pueden suponer enormes pérdidas económicas y/o de reputación. Según un estudio realizado por la empresa de investigación estadounidense Forrester con 157 ejecutivos del área de la tecnología, el coste de una hora de interrupción en el procesamiento de datos puede alcanzar hasta un millón de dólares.
En febrero de 2022, una de las principales empresas de comercio en línea del país perdió cerca de 1.000 millones de reales en cinco días después de que un ataque de piratas informáticos hiciera caer su sistema. Según la última edición del informe de análisis de interrupciones (Outage Analysis Report) del Uptime Institute, en más del 60% de los casos, los fallos cuestan una media de al menos USD 100.000. En el 15% de los casos, cuestan más de un millón de dólares, y el porcentaje ha ido aumentando con los años.
La buena noticia es que los riesgos pueden reducirse drásticamente con la adopción de un conjunto de buenas prácticas y una acción planificada. Entre las iniciativas están: el mapeo de equipos y software, y sus ciclos de vida; la creación de rutinas de verificación y actualización de activos; la implementación de acciones preventivas y predictivas; y la inversión en pequeños inventarios estratégicos con piezas e insumos críticos. Con ello, es posible anticiparse a los fallos, identificar las licencias caducadas, cambiar piezas fuera de la validez recomendada por el fabricante y los equipos obsoletos, que pueden comprometer la seguridad del sistema.
Sin embargo, la cuestión más delicada en la adopción de un plan centrado en el procesamiento de datos es la formación de los equipos implicados. Para que todo el trabajo de planificación, implantación y explotación se realice correctamente, es necesario contar con gestores y profesionales formados en distintas especialidades. En algunos casos, es necesario disponer de personal a tiempo completo para atender eventuales problemas, en cada unidad de la empresa donde haya un data center.
Además de la contratación de talentos en el mercado, la mejor manera de buscarlos, teniendo en cuenta la escasez de mano de obra de TI en Brasil y en el mundo, es capacitar a los equipos internos, incentivar su actualización continua y contar con socios estratégicos que puedan cubrir las brechas técnicas. En la dinámica del mundo de la tecnología, cada día aparecen nuevas soluciones para viejos problemas, nuevos lenguajes de programación, APIs, softwares y plataformas que pueden facilitar el trabajo y la adaptación de la empresa a los nuevos escenarios del mercado.
Y también existe la opción de dejar todo, o sólo parte, en manos de empresas especializadas en entornos de misión crítica, como green4T.