** actualizado para incluir avances de multiplexación **
La red aplicada es uno de esos campos que avanza lentamente. Muy lentamente. Esto no se debe necesariamente a la falta de innovación, sino más bien a la falta de impulso en los entornos empresariales; cuando todo su negocio depende de que algo funcione bien y de manera confiable, no es un lugar donde desee introducir cambios de forma rápida o aleatoria.
Dicho esto, hay dos lugares principales donde veo que las redes cambian desde un punto de vista técnico. Primero están los protocolos del centro de datos que están siendo desarrollados por organismos de ingeniería como el IETF y el IEEE, y luego hay avances en la multiplexación que permiten increíbles aumentos de ancho de banda .
El protocolo del centro de datos avanza
- Si tuviéramos un dispositivo que pudiera detectar (con perfecta precisión) si alguien estaba diciendo una mentira a sabiendas, ¿cómo cambiaría el mundo?
- Si tuvieras que vivir con un traje 24/7/365 durante toda tu vida, ¿qué tipo de traje quieres?
- ¿Cuál será la próxima gran cosa después de big data y IoT?
- ¿Cuáles son las posibilidades de que el mundo descienda a la anarquía completa y total en los próximos 100 años?
- ¿Cómo pueden las personas no religiosas en Estados Unidos promover efectivamente una cosmovisión basada en la ciencia entre los conciudadanos religiosos?
Las cosas están llegando a un punto crítico en el mundo de los centros de datos, y este cambio se debe en gran medida a la confluencia de la nube / virtualización, las aplicaciones en niveles y el almacenamiento en red. Específicamente, hay tres cambios importantes que afectan a los centros de datos corporativos cerca de usted:
1) Red definida por software (SDN)
El Software Defined Networking es un cambio de juego de este tipo, una tecnología potencialmente disruptiva que es muy difícil incluso para alguien que lo entiende, explicarlo por completo o aplicarlo a los casos de uso. Pero aquí va.
SDN es una capa de abstracción e interacción entre el hardware de red y la infraestructura / aplicaciones que dependen de él. Piense en ello como una API que permite cambios en el hardware / software de la red física o virtual a través de un controlador centralizado. SDN es un retorno de los planos de control distribuido (donde cada enrutador o conmutador se configura de forma independiente entre sí) a un plano de control centralizado. Esto significa que las aplicaciones que dependen de una red pueden comunicarse con un controlador centralizado que puede realizar cambios amplios en la infraestructura en nombre de la aplicación para que la red funcione mejor para la aplicación. El caso de uso más simple del que he oído hablar a la gente en el ámbito del centro de datos es un ejemplo que involucra la virtualización: una máquina virtual se mueve a un hipervisor en algún lugar de un centro de datos. La máquina virtual requiere ciertos recursos de red (como el acceso a una plataforma de almacenamiento iSCSI y al menos una red de datos. Si el hipervisor del host no tiene estos recursos disponibles, el proceso envía una solicitud a un controlador SDN y el controlador hace los necesarios). Ajustes a la infraestructura de red para unir los vlans al conmutador ascendente.
2) Tecnologías de multirruta de capa 2 (L2MP)
L2MP es un tema candente en IEEE e IETF en este momento, ya que los grupos de trabajo se esfuerzan por definir y aprobar estándares que permiten que los conmutadores de capa 2 se conecten directamente entre sí en un entorno de malla sin el uso de un protocolo de eliminación de ancho de banda, como la expansión Protocolo del árbol.
Lo emocionante de las tecnologías L2MP es la capacidad de crear dominios de capa 2 más grandes que pueden admitir mejor los patrones de tráfico este / oeste creados por el almacenamiento y las aplicaciones de múltiples niveles sin tener que ejecutar enlaces de respaldo que permanezcan inactivos mientras el enlace activo funciona a su máxima capacidad .
Los dos estándares emergentes que luchan por la corona L2MP son el puente de ruta más corta (SPB-IEEE) y la interconexión redundante transparente de lotes de enlaces (TRILL-IETF). SPB es un conjunto de mejoras de protocolo al conjunto existente de protocolos IEEE 802.1 de Ethernet que se conocen como Data Center Bridging (DCB). DCB incluye mucho más que SPB, y me ocuparé de eso más adelante. Los primeros en adoptar SPB incluyen compañías como Avaya y Alacatel-Lucent. Como podría deducir de esas compañías, estos protocolos están más orientados hacia los entornos de proveedor de servicios / telecomunicaciones, pero podrían funcionar igual de bien para las empresas. He oído decir que SPB es mejor para los proveedores de servicios porque no requiere un cambio masivo de equipo para que funcione. Por otro lado, TRILL funciona de manera muy similar a DCB, pero está siendo adoptado por bateadores pesados como Cisco, Brocade, Oracle y Force10 Networks. TRILL requiere una carretilla elevadora del equipo del centro de datos para funcionar.
Todavía no he oído hablar de nadie que ejecute estos protocolos en entornos de producción, pero probablemente esté sucediendo en algún lugar.
3) Data Center Ethernet (DCE)
El DCE surgió en gran parte de los proyectos IEE SPB, así como de los esfuerzos para lograr que el canal de fibra sobre el protocolo Ethernet (FCoE / T11 FC-BB-5) se ejecute de manera confiable. El canal de fibra requiere un medio de transmisión sin pérdida, y Ethernet, por diseño, es un medio con pérdida. Para salvar esta brecha, han surgido estándares DCE / SPB para permitir el paso de señales de control más sofisticadas entre interfaces, puentes y enrutadores. Estas señales permiten que varios dispositivos aceleren y pongan en cola los paquetes de manera más eficiente para permitir que los datos más sensibles al tiempo y las pérdidas se transmitan a través de una red sin dejar caer paquetes, entregándolos fuera de servicio o introduciendo retrasos significativos en la cola / procesamiento. Si bien los diseños pueden haberse originado para FCoE, los beneficios generales de la estructura del centro de datos, ya que otros protocolos pueden no ser sensibles a las pérdidas, pero aún pueden beneficiarse de las actualizaciones tecnológicas.
Avances en las tasas de datos.
Eludir las frecuencias de tiempo y espectro ha sido el método tradicional para aumentar las velocidades de datos capaces de enviar y recibir datos en un medio sin cambios durante los últimos 40 años, y los científicos e ingenieros que están detrás de esta tecnología solo se vuelven más y más innovadores. La última tecnología de multiplexación implica rotar los láseres a alta velocidad mientras se aplica una fórmula ortogonal (que ni siquiera podía comenzar a explicar o entender) para codificar los datos. ¿El resultado? 100 Tb / s de ancho de banda. Entonces, si bien no llegará a un módem por cable cerca de usted en un futuro cercano, definitivamente es un ejemplo de dónde terminarán las cosas en los próximos 10 a 20 años.
Si quieres ser realmente geek, lee el artículo de Nature Photonics aquí:
http://www.nature.com/nphoton/jo…
O, si eres un simple mortal, lee el artículo de la BBC sobre el mismo artículo:
El láser rompe los registros de velocidad de datos