ALMACENAMIENTO PARA DATA CENTER Un mercado que seguirá en alza y desarrollo Con un incremento constante y significativo de la data a nivel mundial, la demanda global de almacenamiento va en ascenso, así como también una creciente necesidad por una mayor capacidad, especialmente en data centers y a raíz del uso de aplicaciones de Inteligencia Artificial, tendencias que también se reflejan en Chile.
Así lo señala Osvaldo Caviedes, Gerente Regional de Ventas en Western Digital, para quien “estamos en un período de alta demanda; cada vez se están vendiendo productos con mayor capacidad y en algunos casos también con mayor rendimiento y ahí es donde entra todo el mundo de flash, de estado sólido, etc. Como marca estamos operando a nuestra máxima capacidad para poder abastecer la demanda”.
Para Roberto Parraguez, Solution Architect Specialist - SOLA Region de Hitachi Vantara, hay varios fenómenos que están reimpulsando el negocio hacia el almacenamiento. Según explica, tras un tiempo de incertidumbre de las compañías sobre cómo empezar a usar tecnologías disruptivas como la nube e IA, probaron algunos años y empezaron a darse cuenta de que el cloud por sí solo no resuelve algunos problemas o no tiene sentido en todos los ámbitos. “Entonces ahora están comenzando a adoptar una estrategia de nube híbrida y eso implica que hay una bajada de cloud hacia el data center, lo que obviamente empuja la demanda de almacenamiento, pero con arquitecturas orientadas a las aplicaciones y cómo hacemos que puedan convivir en este ecosistema”, sostiene.
Entonces, se busca almacenamiento de mayor capacidad para lograr una mayor efectividad, por el costo de Terabytes y también para que sea más ahorrativo en términos de consumo. Osvaldo Caviedes, WESTERN DIGITAL. Roberto Parraguez, HITACHI VANTARA. Joaquín Pizarro, TOSHIBA. “La IA necesita muchas capas de información y la primera gran capa que requiere almacenar son muchos Terabytes. Independientemente de que tengamos NAND flash, que es lo más rápido, o memoria RAM, las bases de datos necesarias son muy grandes. Además, IA requerirá de todos. Probablemente, un data center se interconectará con otro para poder aprender de este y se necesita ser cada vez más eficientes en el consumo energético”, explica Alfredo Flores, Territory Manager de Toshiba. El escenario local Las tendencias que se viven a nivel mundial en este mercado, se replican también en Chile, aunque -a juicio del ejecutivo de WD- lo hacen, pero de una manera distinta. “Separando la conversación en grandes empresas y medianas y pequeñas, el mundo del storage funciona de una manera bastante distinta. El segmento Pyme no se preocupa mucho del tema y no tiene una solución ni siquiera para el almacenamiento primario de su empresa”, plantea y agrega que ahí existe un desafío muy importante porque en Chile el 80% de las organizaciones son Pymes y, en muchos de los casos, no entienden qué significa el almacenamiento o cómo pueden tener redundancia; no tienen claro cómo abordarlo. “Quizás falta robustez en términos de la información que están recibiendo para generar esa necesidad”, agrega.
En términos porcentuales por población, por ejemplo, la Pyme en Chile está muy lejos de la penetración de servidores de almacenamiento v/s un mercado ya desarrollado.
Además, hoy día el tema del storage ha cambiado, si antes eran las empresas las que generaban y almacenaban la data, ahora los protagonistas somos cada uno de los usuarios. “Por lo tanto, el crecimiento a nivel de datos explotó; si subimos una foto directamente a la nube estamos subiendo rápidamente 9 MB”, detalla César Cordero, Sales Manager de Lenovo.
En este sentido, el gran desafío, plantea, es cómo las compañías toman ventajas de esa data, hacen analítica de ella y pueden obtener un beneficio para el negocio. Y para los proveedores, el reto es cómo seguritizar esa información y entregársela al cliente, para que sea la que necesita, porque, así como hay información útil para el negocio, también hay mucha “basura”. Es esencial, agrega, tener una oferta para cada uno de los segmentos, ya sea Enterprise, SOHO o PyME, para que puedan tener su información segura y disponible en el momento en que la requieran.
Casi toda la producción de almacenamiento de grandes capacidades este último año ha sido absorbida por cloud e IA, y para esto, además de la seguridad y disponibilidad mencionadas, se requiere flexibilidad. “Se está volviendo muy importante que la data esté disponible, segura y pueda ser movible de un lado a otro, lo que puede ser muy demoroso, aunque tenga fibra, por lo que es un gran desafío para todos”, afirma Matías Torres, Sales Manager EDS de Seagate. Asimismo, temas como los ataques de ransomware y la ciberseguridad en general, requieren que los datos estén, pero a la vez replicados en varias partes, disponibles y seguros. Y estas son variables que todos están trabajando en los diferentes productos y segmentos.
Para Ignacio Araya, Data Services Sales Specialist en HPE, “es muy claro: el dato es el que mueve el mundo. Es mucha la capacidad que se está generando y más allá de solo tener información, es clave saber: ¿Qué hacemos con ella? Será una ventaja competitiva cómo utilizamos los datos para generar valor al negocio. Allí es esencial la explotación y limpieza del dato”. Por ejemplo, si se alimenta un sistema IA con datos incorrectos, la respuesta también lo será y eso genera un sesgo. Hoy -explica- la conversación debe estar centrada en el dato: en cómo lo protegemos, limpiamos, purificamos y cómo al final entregamos fiabilidad y lo disponibilizamos. Transformación digital Por encima de toda esta estrategia de almacenamiento, datos y aplicaciones, hay una estrategia de transformación digital, que es la que empuja la decisión de TI. Así lo explica el ejecutivo de Hitachi, quien indica que “la transformación digital plantea a las compañías la pregunta de si el dato lo deben tener en su data center o en la nube”. Y la premisa Cloud First significa que primero valoro si puedo disponibilizar este en la nube y luego si voy a apalancar una aplicación desde el data center.
Entonces, la demanda de almacenamiento para data centers está sometida a esta ecuación y eso también mueve el mercado de consumo de almacenamiento en volumen y en la forma en cómo se consume. En este sentido, detalla, las arquitecturas de almacenamiento tradicionales cambian hacia soluciones orientadas a software que permitan conversar y mantener un gobierno de datos en arquitecturas multicloud.
Una tendencia que va en alza y muy probablemente las empresas terminan su proceso de transformación digital adoptando esta arquitectura, lo que mueve la demanda de almacenamiento.
También es necesario considerar que hay muchos clientes distintos y todos tendrán una diferente demanda, enfatiza Alfredo Flores. Por ejemplo, clientes que son estratégicos para un país, pensarán en tener su información de forma redundante, su propio micro data center y tener el control de este, y ahí también es importante estar.
Para César Cordero, la tendencia, haciendo la analogía con “distribuidocentralizado”, nuevamente va hacia los sistemas distribuidos porque estamos capturando data en el Egde, en aplicaciones cotidianas usando IA. Información que se produce en el momento y permite tomar acciones, la que después se lleva al data center, donde se discrimina si se replica hacia una cloud pública o queda on premise.
No obstante, las empresas deben definir políticas también de dónde y qué quieren almacenar; hoy el almacenamiento en sí está migrando marcadamente a virtual, es decir, almacenamiento por objeto, que sea más flexible, seguro y que logre grandes capacidades. Y lo vamos a ver en todo tipo de aplicaciones, ya sea a nivel SMB o de usuario. “Es toda una revolución, como fue en su momento el cambio a servidores virtuales, hoy día también el storage virtual es una realidad y cada vez más común”, argumenta el profesional de Seagate. Mundos que coexisten A juicio de Roberto Parraguez, hay dos enfoques dentro de las arquitecturas de los data centers. Uno se centra en el mundo operacional, del negocio persé, donde la tecnología predominante es flash y NVMe, y de ahí no se moverá. En este ámbito, el disco mecánico ya no es adecuado para la demanda de I.O. de las arquitecturas modernas, pero hay otra necesidad, que es el almacenamiento Long-Term Storage (a largo plazo), impulsado por la modernización de aplicaciones y la adopción de S3. Las empresas están reemplazando las librerías de respaldo por almacenamiento a largo plazo debido a sus propiedades de durabilidad, que resuelven problemas de compliance y garantizan la imputabilidad de la información. Entonces, hay dos corrientes, en una de las cuales el disco mecánico va a seguir vivo y apuntará a la sustentabilidad.
Al respecto, las marcas coinciden en que, de aquí a 2030, la sustentabilidad ya no será una opción, será mandatorio, por eso cada vez más esta entra como variable en la ecuación cuando los clientes evalúan soluciones de almacenamiento en el mundo del disco mecánico. “Entonces todavía hay mucha vida en ese ámbito del ‘almacenamiento frío’ o histórico; el disco mecánico seguirá evolucionando. Y en lo que es operacional o transaccional será NMVe, y probablemente los discos QLC también por un tema de eficiencia energética, empiezan a ganar mucho terreno en el tiempo”, añade el profesional de Hitachi.
La necesidad de almacenamiento hoy es tan grande que, según explica Osvaldo Caviedes, no existe capacidad productiva para que todo sea flash, por lo que el disco duro sí o sí seguirá viviendo entre nosotros por mucho tiempo. Sumado a esto, está el TCO: no todos pueden costear la tecnología flash.
“Lo que vemos a nivel mundial es que la demanda por disco duro es altísima. Hoy la facturación de los fabricantes, en términos de Terabytes o Petabytes, se está yendo justamente al mundo cloud, donde todavía se almacena mucho en disco duro por un tema de costo y de capacidad productiva”, añade.
Para el ejecutivo de HPE, al final del día depende del caso de uso y ahí conviven ambos mundos: “Si yo necesito almacenar un dato frío, ya sea por compliance o regulación, lo guardaré probablemente en alguna librería de cinta o en alguna unidad de disco duro mecánico. Ahora, si requiero dar una gran performance para los usuarios a nivel de negocio, es decir, disponibilizar una data más caliente, a la que estoy constantemente accediendo, claramente tendré que usar SSD, independientemente del protocolo”, detalla. Complementando este planteamiento, Patricio Vio, Distribution Account Manager de Lenovo, señala que también se puede hablar por modelo de negocio, haciendo un paralelo entre data “fría” y “caliente”. “Si tienes un negocio muy transaccional (data caliente), la nube no será una opción por el costo y ahí debiéramos ponderar el on premise con discos y tecnología que nos permitan hacer muchas transacciones”. Retos y oportunidades para el canal Hoy en día, cuando la data es tan relevante y tiene que estar disponible, segura, flexible y más, es clave el servicio. “Y en eso el canal es fundamental, porque finalmente es la cara ante el cliente”, destaca Matías Torres. Agrega que en las grandes corporaciones hay inversión y conocimiento, pero en el segmento SMB hay mucho que hacer en este tema y, como proveedores, hay que estar de la mano trabajando con los canales creando soluciones; cada cliente es un mundo y hay muchas variables para poder definir realmente qué producto entregar según el caso de uso. A su juicio es una oportunidad tremenda para los canales: ayudar a los clientes en la toma de decisiones de sus inversiones en almacenamiento y dar soluciones que realmente, según el uso del dato, sean beneficiosas para cada uno.
También es muy importante a la hora de acercarse a las empresas, en opinión de Joaquín Pizarro, Product Marketing de Toshiba, la estrategia comunicacional, es decir, cómo comunicamos al cliente. “El mercado se reinventa constantemente, cada dos años tenemos otro negocio y entonces ha sido difícil evangelizar en el discurso. Ahí los mayoristas toman también un rol fundamental, aquellos que tienen arquitectos marcan una diferencia clave, por su capacidad y experiencia, pudiendo acompañar al canal. Y como proveedores tenemos que preocuparnos de cómo preparar a ese equipo para poder sortear distintos niveles de complejidad”, expresa.
“Hay un desafío muy grande y, a la vez, una gran oportunidad, sobre todo en los canales más pequeños”, explica el profesional de WD y agrega que muchos canales ocupan productos que no son para lo que están diseñados, solamente por desconocimiento. “Es una falta nuestra también, porque no hemos llegado con una comunicación integral a esos canales”, reflexiona al respecto. Demanda de almacenamiento v/s economía Consultados respecto a si el almacenamiento crece junto con la economía, el consenso es que sigue creciendo, porque independientemente de esto, es una necesidad que existe y va en alza. A juicio de César Cordero, cambia la forma: es decir, la data igualmente sigue creciendo e igualmente se tiene que almacenar, lo que cambia es que si tienen más presupuesto probablemente los clientes se hacen dueños de su data y si la economía no va bien varía el modelo de cómo enfrentan esa solución.
En opinión de Ignacio Araya, el dato seguirá creciendo independientemente de cómo esté la economía. Si esta baja, evidentemente la demanda de capacidad de storage disminuirá, pero ahí es donde entran las diferentes alternativas de cómo ofrecemos las soluciones de almacenamiento, considerando facilidades a los clientes para que puedan consumir esa capacidad.
Concuerda Roberto Parraguez, en que más que alterar la demanda, cambia cómo se consume. Hoy en día la tecnología de almacenamiento también provee mecanismos para poder ser eficientes en la inversión, como pago por uso. Y ante fluctuaciones de la economía, más que el tipo de almacenamiento, la elasticidad varía en CAPEX u OPEX. En momentos de alta complejidad, quizás la empresa reduce el presupuesto. “Tengo un presupuesto de gasto y me voy por el mundo OPEX, porque es la forma de darle continuidad al negocio. En momentos en que la economía se resuelva, los presupuestos van a ampliarse, y el CAPEX volverá a ser el rey de la corona”, explica. Tendencias Desde la perspectiva de los fabricantes, el mayor desafío actual es cómo aumentar la capacidad en Terabytes ocupando el menor espacio posible, independientemente de la tecnología empleada para lograrlo. Y, en ese sentido, incluso se busca que la información se escriba de forma más condensada y los discos ya no se sellan con aire, sino con helio, que al tener menos densidad permite que estos tengan mayor durabilidad.
En el ámbito de los discos duros, se esperan anuncios este año de capacidades de 28 y 30 TB por disco, con proyecciones de 40 a 50 TB para el próximo año. Por otro lado, en el almacenamiento flash, se busca reducir el costo por Gigabyte y aumentar la capacidad por unidad de almacenamiento, como principal desafío.
Y es que, por un lado, se requiere aumentar el almacenamiento en menos espacio y, por otro, mejorar el rendimiento con menos discos y tecnología superior. Asimismo, las empresas están buscando soluciones que no solo respondan a consideraciones económicas, sino que también satisfagan la creciente demanda de arquitecturas que aseguren la integridad y la seguridad de los datos de manera robusta.
Lo que antes era considerado “Nice to have”, como el backup y el disaster recovery, ahora se ha convertido en mandatorio. El aumento en amenazas como el ransomware ha fortalecido la importancia de la ciberseguridad, y el concepto de bóveda de datos, con distintos nombres, se ha vuelto esencial. Todo apunta a un mercado que seguirá en evidente desarrollo y al alza en demanda, planteando interesantes oportunidades para el canal. |