La modernidad trajo consigo un sinfín de desarrollos tecnológicos que nos llevaron a vivir dentro de un mundo hiperconectado, donde prácticamente todos los servicios de los cuales disponemos pasan por la nube: las transacciones bancarias, los mensajes de texto, los contenidos de entretenimiento, así como también las bases de datos de la industria. Esta enorme cantidad de servicios provoca que cada año esté aumentando la cantidad de datos que fluyen hacia y a través de los centros de datos, lo que obliga a los administradores de redes a replantearse la totalidad de la infraestructura de red, desde su fibra de planta externa hasta las topologías utilizadas para mover, enrutar y distribuir petabytes de datos.
Al mismo tiempo, la propia naturaleza de los datos también está cambiando rápidamente. La tendencia hacia un mayor número de aplicaciones con clientes que requieren un rendimiento ultra-confiable y de baja latencia, así como más recursos de procesamiento en edge, ha puesto bajo análisis la definición de lo que es o necesita ser un centro de datos. El resultado es una interesante disyuntiva.
Por un lado, el paso a un entorno virtualizado más eficiente basado en la nube permite a los centros de datos aprovechar las economías de escala. De hecho, se espera que para 2025 el 85% de las estrategias de infraestructura de los centros de datos integren opciones de entrega en la nube y en el borde, en comparación con el 20% en 2020 (1). Ahora, al reunir los equipos activos en una estructura centralizada (no muy diferente a una C-RAN de red móvil) los centros de datos pueden obtener ahorros sustanciales en términos de energía, mantenimiento y otras eficiencias operativas.
Por otro lado, la afluencia de datos ultra-confiables y de latencia ultra-baja, procedentes de aplicaciones como la automatización de la fabricación, los vehículos con autoconducción y la telecirugía, implica la necesidad de situar más recursos informáticos cerca de los dispositivos y las personas que producen y consumen los datos.
Esta tendencia dicta que hay que empujar más equipos activos al borde de la red. Pero ¿qué significa esto exactamente? ¿Dónde está exactamente el límite? ¿Gabinetes localizados y distribuidos a nivel de calle, cada uno con unos pocos racks? ¿Centros de datos metropolitanos con una docena de filas? ¿O una combinación de ambos? La respuesta estará relacionada con el rendimiento de la latencia que requieren estas nuevas aplicaciones.
Pero no vamos a ciegas; conocemos algunos de los obstáculos inmediatos que debemos superar. Por ejemplo, ya estamos viendo que los despliegues iniciales de la Inteligencia Artificial (Artificial Intelligence – AI) y el Aprendizaje de las Máquinas (Machine Learning – ML) hacen que los requisitos de velocidad de la red del servidor sean de 200 gigas y más. Sabemos que los fabricantes de switches están favoreciendo los nuevos conectores MPO16 que proveen ocho carriles con interconexiones mediante 16 fibras. Actualmente, esto supone un potencial de 800 G por transceptor de red o, quizás, ocho servidores que se conectan a 100 G desde un único transceptor. Más carriles significa más capacidad por switch, lo que supone un menor coste y consumo de energía.
Repercusiones en la infraestructura de la red
Un gran reto es que el ancho de banda es finito y caro, por lo que los administradores de la red deben priorizar qué información necesita ser canalizada de vuelta al núcleo y qué puede permanecer en el borde. Incluso definir la ubicación del centro de datos al borde (edge data center) puede ser difícil. En el caso de centro de datos hiperscala el borde puede estar en un MTDC, en un gabinete a pie de calle, o en una instalación de fabricación situada a kilómetros del núcleo. La variedad de escenarios de despliegue y los requisitos de ancho de banda dictan las capacidades y configuraciones de la infraestructura.
Adaptarse a los nuevos requisitos del núcleo al borde significa que las infraestructuras de red deben ser más rápidas y flexibles. Ya estamos viendo cómo las velocidades de 400 G y superiores están afectando a los diseños de las redes. A partir de 400 G, se están diseñando más aplicaciones para un cableado de 16 fibras. Esto está provocando un cambio en la conectividad tradicional basada en diseños cuádruples a los diseños octales construidos con conectores MPO de 16 fibras. Una configuración de 16 fibras duplica el número de salidas por transceptor y proporciona soporte a largo plazo desde 400 G hasta 800 G, 1.6 T y más allá. El diseño de 16 fibras, incluidos los transceptores, los cables troncales y los módulos de distribución, se convertirán en la base de las conexiones del núcleo-al-borde (core-to-edge) de mayor velocidad.
Las tecnologías y aplicaciones de próxima generación están impulsadas por eficiencias y capacidades que aún estamos desarrollando. Como industria, cuando pensamos en tener que reequipar miles de centros de datos muy grandes para proporcionar ese nivel de flexibilidad de alta eficiencia, hacerlo bien desde el primer día se convierte en un imperativo. Los cimientos de la infraestructura tienen que estar listos antes de que lleguemos demasiado lejos. De lo contrario, las infraestructuras que deberían permitir el crecimiento lo impedirán. Eso no significa que debamos tener el 100% de las capacidades necesarias desde el principio. Pero sí necesitamos entender cómo es la estructura, para poder construir lo que se necesita, donde se necesita y antes de que lo necesitemos.
Por Kam Patel, Hyperscale and Service Provider Data Center Solutions de CommScope.