$0.00

No hay productos en el carrito.

Perspectiva tecnológica de una arquitectura desacoplada de almacenamiento y computación de nuevo tipo

El avance continuo de la digitalización es crucial para el progreso en la infraestructura de TI, incluida la computación y el almacenamiento. Las industrias de la nube y la conectividad han construido la plataforma de infraestructura de TI más grande de China, almacenando y procesando la mayoría de los datos de todas las industrias. Se estima que para 2025, China tendrá 300 EFLOPS de potencia informática, mientras que el volumen de datos del país alcanzará los 48,6 ZB. El avance continuo del proyecto de Datos Orientales y Computación Occidental de China establece constantemente requisitos más altos para que los centros de datos sean ecológicos, intensivos e independientes.

Las soluciones tradicionales de almacenamiento de big data que integran almacenamiento y computación están representadas por sistemas hiperconvergentes basados ​​en servidores que administran de forma centralizada los recursos del servidor. Sin embargo, la falta de alineación entre los requisitos de almacenamiento y computación causa problemas como escalabilidad inflexible y baja utilización. La disociación entre almacenamiento y computación significa que los recursos de almacenamiento y computación se dividen en módulos independientes, lo que tiene ventajas significativas para el uso compartido eficiente de los recursos de almacenamiento. Esta solución se ha aplicado en numerosos escenarios, fortaleciendo los sistemas de almacenamiento en términos de uso compartido de datos y escalabilidad flexible.

Construcción impulsada por la tecnología de una arquitectura desacoplada de almacenamiento y computación

1. Cuatro desafíos para la arquitectura integrada de almacenamiento y computación tradicional

El ámbito del almacenamiento en la nube e Internet se basa principalmente en la integración de servicios de almacenamiento distribuidos a través de servidores. Hoy en día, este modelo se enfrenta a los siguientes retos:

Los períodos de almacenamiento de datos y los períodos de actualización del servidor no están alineados. Las enormes cantidades de datos de los servicios emergentes deben almacenarse de acuerdo con sus políticas de ciclo de vida (por ejemplo, de 8 a 10 años). Sin embargo, el período de actualización de los sistemas de almacenamiento basados ​​en servidor depende del período de actualización del procesador correspondiente (por ejemplo, de 3 a 5 años). La enorme brecha entre estos períodos provoca un enorme desperdicio de recursos del sistema y un mayor riesgo de pérdida de datos durante la migración. Por ejemplo, cuando los componentes del servidor en el dominio de almacenamiento se retiran debido a las actualizaciones de la CPU, se requiere la migración de datos.

El equilibrio entre el rendimiento confiable y la utilización de los recursos. En general, existen dos tipos de sistemas de almacenamiento distribuido: orientados al rendimiento y orientados a la capacidad. Los sistemas de almacenamiento orientados al rendimiento ejecutan servicios clave como bases de datos. Normalmente, se almacenan tres copias de los mismos datos y se utilizan matrices redundantes de discos independientes (RAID). Sin embargo, solo se utiliza realmente el 30 % del espacio de almacenamiento, lo que representa un desperdicio masivo de recursos de almacenamiento. En comparación, los sistemas orientados a la capacidad utilizan la codificación de borrado (EC) para mejorar la utilización de los recursos. Sin embargo, el cálculo de EC consume una gran cantidad de recursos del sistema y proporciona una baja eficiencia de refactorización, lo que genera riesgos (consulte la Figura 1).

Figura 1: Utilización de recursos del almacenamiento distribuido

 

Las nuevas aplicaciones distribuidas requieren un almacenamiento simplificado, eficiente y compartido. Ahora están surgiendo nuevas aplicaciones distribuidas, como las aplicaciones sin servidor. Las aplicaciones están pasando de ser aplicaciones sin estado a aplicaciones con estado, y la demanda de acceso compartido a datos está aumentando. Además, las aplicaciones como la inteligencia artificial requieren una gran cantidad de potencia informática heterogénea, lo que implica la necesidad de acceso a memoria compartida. Estas aplicaciones se centran más en un gran ancho de banda y una baja latencia, y solo requieren un almacenamiento compartido ligero sin funciones empresariales complejas.

Los «impuestos de los centros de datos» dan como resultado aplicaciones ineficientes que hacen un uso intensivo de los datos. Las arquitecturas y aplicaciones de servidores centradas en la CPU pagan elevados «impuestos de los centros de datos» para adquirir datos. Por ejemplo, el 30 % de la potencia de procesamiento de la CPU se consume en solicitudes de entrada/salida (E/S) de almacenamiento.

En conclusión, el almacenamiento de datos en la nube e Internet requiere un equilibrio entre los requisitos de utilización de recursos, confiabilidad y más, así como una nueva arquitectura desacoplada de almacenamiento y computación basada en nuevas tecnologías de software y hardware.

2. Los avances tecnológicos abren el camino a la refactorización de la arquitectura

El rápido desarrollo de procesadores de datos dedicados y redes de nuevo tipo ha sentado las bases técnicas para la reestructuración de la infraestructura de los centros de datos, lo que permitirá abordar desafíos como la utilización de la capacidad y la eficiencia del almacenamiento.

En primer lugar, para reemplazar los discos locales en los servidores, muchos proveedores han lanzado cajas de discos EBOF de alto rendimiento. Esta solución se centra en la adopción de nuevos estándares de acceso a datos, como NVMe over Fabric (NoF), para ofrecer almacenamiento de alto rendimiento.

En segundo lugar, en la industria están surgiendo más DPU e IPU dedicadas para reemplazar a los procesadores de uso general, lo que mejora la eficacia del uso de la potencia de procesamiento. La colaboración entre redes y almacenamiento basada en conmutadores programables es otra área de investigación importante, con ejemplos como NetCache y KV-Direct.

En tercer lugar, los estándares de las redes de acceso a datos se mejoran constantemente. Un ejemplo son los protocolos Compute Express Link (CXL), que cuentan con funciones de agrupación de memoria mejoradas.

3. Características de la arquitectura desacoplada de almacenamiento y computación

El desarrollo de nuevas tecnologías de hardware, como el acceso directo a memoria remota (RDMA), CXL y SSD con memoria no volátil express (NVMe), exige un nuevo tipo de arquitectura desacoplada entre almacenamiento y computación. Esto abordará la necesidad de garantizar que los servicios de dominio de almacenamiento en la nube e Internet puedan lograr un buen equilibrio entre numerosos factores como la utilización de recursos y la confiabilidad. Este nuevo tipo de arquitectura difiere de la arquitectura tradicional en dos formas: primero, el almacenamiento y la computación están completamente desacoplados para formar grupos de recursos de hardware que son independientes entre sí. Segundo, la división de tareas de grano fino permite que los aceleradores dedicados reemplacen a las CPU en áreas donde las CPU tienen un rendimiento deficiente, como el procesamiento de datos, lo que garantiza una eficiencia energética óptima (consulte el lado derecho de la Figura 2).

Figura 2: Comparación entre la arquitectura tradicional desacoplada de almacenamiento y computación y su nueva contraparte

 

El nuevo tipo de arquitectura presenta las siguientes características:

Servidores sin disco. El nuevo tipo de arquitectura reemplaza los discos locales que tradicionalmente se encuentran en los servidores por servidores sin disco y grupos de almacenamiento remotos, y también utiliza grupos de memoria remota para expandir la memoria local. Esto básicamente desacopla el almacenamiento y la computación, lo que mejora enormemente la utilización de los recursos de almacenamiento y reduce la necesidad de migración de datos.

Protocolos de red diversificados. El protocolo de red entre computación y almacenamiento ahora se está extendiendo desde el Protocolo de Internet (IP) o el Protocolo de Canal de Fibra (FCP) a una combinación de protocolos (CXL + NoF + IP). CXL reduce la latencia de la red a submicrosegundos y permite la agrupación de memoria, mientras que NoF acelera la agrupación de SSD. Por lo tanto, las redes de alto rendimiento construidas en base a la combinación de estos protocolos pueden admitir el acceso a varios grupos de recursos.

Procesadores de datos dedicados. Las tareas de almacenamiento de datos ya no son manejadas por procesadores de propósito general, sino que se delegan en procesadores de datos dedicados. Además, las operaciones de datos específicas, como la codificación de borrado, se pueden acelerar aún más mediante aceleradores de hardware dedicados.

Sistemas de almacenamiento con una densidad de almacenamiento ultraalta. Los sistemas de almacenamiento separados son una parte clave del nuevo tipo de arquitectura. Como base de los datos persistentes, integran las capacidades de gestión del espacio tanto del sistema actual como de los discos mediante la aplicación de la gestión intensiva de los medios de almacenamiento y el diseño colaborativo en profundidad de chips y medios. Además, los sistemas utilizan el algoritmo de codificación de borrado de alta proporción para reducir el porcentaje de sobrecarga de recursos redundantes. Además, los sistemas utilizan tecnología de reducción de datos basada en escenarios, basada en la aceleración de chips, para proporcionar más espacio de almacenamiento de datos disponible.

Nuevo tipo de arquitectura desacoplada de almacenamiento y computación y tecnologías clave para aplicaciones en la nube e Internet

1. Arquitectura simplificada y en capas desacoplada entre almacenamiento y computación

El nuevo tipo de arquitectura desacoplada entre almacenamiento y computación está diseñado para resolver varios de los principales desafíos que presenta la arquitectura tradicional. Para lograrlo, desacopla diferentes funciones, forma grupos de recursos y los reestructura en tres nuevos módulos simplificados: módulo de almacenamiento, red de bus y módulo de computación.

Módulo de almacenamiento: Normalmente, los servicios de Internet y de la nube tienen tres escenarios de aplicación principales (consulte la Figura 3). El primero de ellos es para los servicios de virtualización, que reemplazan los discos locales de los servidores de dominio de almacenamiento que se encuentran en los centros de datos con discos remotos. El segundo escenario es proporcionar una gran memoria e interfaces de valor clave para los servicios que requieren un procesamiento de datos ultracaliente, como los servicios de big data, para acelerar las velocidades de procesamiento de datos. El tercer escenario son los servicios nuevos, como los contenedores, que proporcionan directamente semántica de archivos para aplicaciones distribuidas, como Ceph, y admiten la clasificación de datos cálidos en niveles para módulos de almacenamiento de discos mecánicos más fríos, como EBOD, para mejorar la eficiencia del almacenamiento.

Figura 3: Tres escenarios de aplicación típicos de módulos de almacenamiento

 

En el nuevo tipo de arquitectura desacoplada entre almacenamiento y computación, los módulos de almacenamiento toman principalmente la forma de nuevos tipos de carcasas de discos como EBOF y EBOM. Además, las capacidades de almacenamiento tradicionales, como EC y compresión, se trasladan a los nuevos tipos de carcasas de discos para permitir «discos como medios de almacenamiento». Esto permite la prestación de servicios de almacenamiento de archivos y bloques estándar a través de redes compartidas de alta velocidad como las redes NoF.

En cuanto a la arquitectura interna, la capa de medios puede constar de discos duros estándar o placas integradas en chips, mientras que los discos y los gabinetes pueden integrarse para minimizar los costos. Además, los módulos de almacenamiento necesitan subsistemas basados ​​en pools. Esto permitirá que los módulos agrupar medios de almacenamiento locales mediante el uso de tecnologías de redundancia confiables como RAID y EC, y también utilizar tecnologías como la deduplicación y la compresión para mejorar aún más la capacidad efectiva. Para respaldar la programación de datos de alto rendimiento de la nueva arquitectura, se necesitará un rendimiento de datos más eficiente. Generalmente, las rutas de acceso rápido a los datos se construyen en función de tecnologías como el paso a través de hardware. En comparación con las matrices de almacenamiento tradicionales, estas rutas evitan el intercalado ineficiente de datos de usuario y datos de control (por ejemplo, metadatos), reducen el procesamiento complejo de características (por ejemplo, replicación) y acortan las rutas de procesamiento de E/S, lo que permite un rendimiento superior que ofrece alto rendimiento y baja latencia.

Los módulos de almacenamiento son una nueva forma de almacenamiento que proporciona una capacidad de almacenamiento intensiva, compacta y superior. Están acelerando la transformación hacia servidores sin disco, al tiempo que respaldan la evolución de las arquitecturas de centros de datos tradicionales hacia una arquitectura simplificada y en capas desacoplada entre almacenamiento y computación.

Módulo de computación: A medida que la Ley de Moore se desacelera, solo los procesadores dedicados podrán liberar aún más la potencia de computación necesaria para la siguiente etapa de desarrollo. La introducción de procesadores dedicados hace que la puesta en común de la potencia de computación sea una necesidad. Sin dicha puesta en común, la configuración de una tarjeta de computación heterogénea para cada servidor significará un consumo masivo de energía y una baja utilización de recursos. Los procesadores de datos dedicados, como las DPU, ofrecen menores costos, menor consumo de energía y plug-and-play, lo que garantiza tanto las operaciones normales del servicio como la calidad del servicio.

Bus de datos de alto rendimiento: durante la última década, las redes IP 10GE han permitido la agrupación de unidades de disco duro (HDD), así como el desarrollo de protocolos de acceso basados ​​en IP que admiten el uso compartido de bloques y archivos. Actualmente, NVMe/RoCE está impulsando la agrupación de unidades de estado sólido (SSD) para el procesamiento de datos en caliente. Además, el protocolo NVMe está experimentando un rápido desarrollo y está comenzando a incorporar protocolos aislados. En el futuro, las redes orientadas a la memoria (por ejemplo, CXL) permitirán la agrupación de recursos de memoria para el procesamiento de datos en caliente (consulte la Figura 4).

Figura 4: Desarrollo de la tecnología de red

 

2. Tecnologías clave que permite el nuevo tipo de arquitectura desacoplada de almacenamiento y computación

El nuevo tipo de arquitectura desacoplada de almacenamiento y computación ha cambiado la forma en que se combinan los recursos de hardware y ha dado lugar a una variedad de tecnologías clave, como la reducción de datos basada en escenarios y redes hiperconvergentes de alto rendimiento.

Reducción de datos basada en escenarios: en el nuevo tipo de arquitectura, la reducción de datos la gestiona el módulo de almacenamiento. Esto, junto con las tareas de reducción de frontend y backend, reduce el impacto en el rendimiento y mejora la tasa de reducción. Se pueden utilizar diferentes técnicas de reducción en función de las características de los datos en diferentes escenarios.

Red hiperconvergente de alto rendimiento: en función de los escenarios de implementación y los requisitos de servicio ágiles y adaptables para diversas redes, los módulos de almacenamiento y computación se pueden conectar en red de acuerdo con una combinación de CXL Fabric, NoF e IP. En ese sentido, se deben considerar las siguientes tecnologías clave: En primer lugar, la conectividad de red tiene dos modos: conexión directa y agrupación. En el modo de conexión directa, las tarjetas de interfaz de red (NIC) son utilizadas exclusivamente por el equipo. En el modo de agrupación, las NIC se agrupan y comparten entre diferentes equipos, lo que mejora la utilización. En segundo lugar, la comunicación entre bastidores normalmente utiliza el mecanismo RDMA. Debido a que la cantidad de conexiones RDMA tradicionales es limitada, se debe resolver el problema de la escalabilidad con respecto a la conexión a gran escala. Un ejemplo de solución es la aplicación de tecnología sin conexión para desacoplar el estado de la conexión de las aplicaciones de red, lo que permite admitir decenas de miles de conexiones.

Colaboración entre redes y almacenamiento: las NIC inteligentes (iNIC) y las DPU son las puertas de enlace de datos de los servidores. Aprovechar al máximo las capacidades de aceleración de las iNIC y las DPU, como la descarga y compresión de hardware NoF, y coordinar la programación de tareas entre los host y las DPU para reducir los gastos generales de procesamiento de datos del host mejorará la eficiencia de E/S. Los conmutadores programables actúan como centros de intercambio de datos entre servidores y dispositivos de almacenamiento, y desempeñan un papel especial en el sistema. Su programabilidad, centralización y alto rendimiento hacen posible un procesamiento de datos colaborativo eficiente.

Colaboración entre almacenamiento en disco: la colaboración profunda entre los medios de almacenamiento y los chips de control puede facilitar el mejor costo total de propiedad y la mejor eficiencia de extremo a extremo. Por ejemplo, en el diseño de redundancia, los nuevos tipos de módulos de almacenamiento poseen chips de almacenamiento integrados y crean un espacio de agrupación de EC de alta proporción a nivel de chasis. Esto facilita la descarga y aceleración de chips dedicados, simplificando el diseño original de redundancia multicapa, como en disco y en chasis, y mejorando la utilización de recursos.

Los nuevos tipos de módulos de almacenamiento basados ​​en chips dedicados proporcionan interfaces de E/S tradicionales y evitan la aceleración de la interfaz, lo que permite que los metadatos eviten la pesada pila de E/S y mejoren las capacidades de acceso paralelo a través del acceso a la memoria remota.

Desafíos para el nuevo tipo de arquitectura desacoplada de almacenamiento y computación

A raíz del proyecto de datos orientales y computación occidental de China y de la iniciativa de ahorro de energía y reducción de emisiones, el nuevo tipo de arquitectura desacoplada entre almacenamiento y computación se convertirá en un tema candente. Por supuesto, la arquitectura también enfrenta muchos desafíos técnicos que deben ser abordados por expertos en diversos campos.

La interfaz de acceso a datos y los estándares entre la computación y el almacenamiento se ejecutan principalmente en el modelo de solicitud-respuesta maestro-esclavo, y transportan principalmente semántica de almacenamiento en bloque. Sin embargo, con el rápido desarrollo de la potencia informática heterogénea en los discos de memoria y las iNIC, el rendimiento en términos de semántica de acceso a la memoria y semántica colaborativa entre la computación y el almacenamiento no está a la altura de los requisitos.

Es necesario seguir explorando para determinar cómo aprovechar los ecosistemas existentes y aprovechar el potencial de la infraestructura basada en la nueva arquitectura. Entre los principales desafíos a largo plazo se incluyen maximizar el potencial de los nuevos procesadores de datos y los sistemas de almacenamiento compartidos a nivel mundial, y diseñar marcos de servicios de aplicaciones más eficientes.

Reviews

Related Articles