Google quiere relajar los requisitos de la óptica para centros de datos

Ya comentaba en septiembre que Google no está satisfecho con los requisitos actuales para equipos de 100G, por quedarse bien demasiado cortos o pasarse. En aquella ocasión era en la conferencia ECOC, en la cual sugirió que debería hacerse un nuevo acuerdo entre los fabricantes de equipamiento óptico para que se desarrollaran transpondedores adecuados a su situación particular, ya que en otro caso no les compensa pasarse a los 100G.

Esta vez ha sido en el Technology Exploration Forum de la Ethernet Alliance, en un debate llamado Do we Need a New Environmental Standard for the Internet Data Center?, moderado por Chris Cole de Finisar y en el que han participado Richard Kluge de Telecordia, Vijay Vusirikala de Google, Herman Chu de Cisco, Scott Kipp de Brocade y Eddie Tsumura de Sumitomo/Finisar/Opnext.

Vijay Vusirikala, en la foto de abajo, asegura que es necesario relajar los requisitos de los dispositivos que se emplean en los centros de datos, respecto a los que realmente deben cumplir los destinados a equipos de red en los operadores. Como ejemplo, asegura que, dado que nunca se llega a tener temperaturas de 0ºC en un centro de datos, no es necesario tener componentes que puedan soportar temperaturas tan bajas, una idea que está en línea con la filosofía de Google, en la que si un elemento falla en un centro de datos, se tira y se reemplaza por otro.

El moderador Chris Cole aseguró que el primer objetivo de Google en este sentido debería ser, en primer lugar, comprobar si esta idea es del agrado de Facebook o Amazon, u otros poseedores de grandes centros de datos en Internet. En este sentido, Google tratará de desarrollar una especificación para ver si atrae a Facebook y Amazon, buscando reducir la carga de los ciclos de pruebas y diseño que llevan mucho tiempo. Algunas de las sugerencias que aparecen en esta especificación son:

  • Requisitos de soporte de temperaturas reducidos, como por ejemplo una temperatura máxima de 60ºC en lugar de más de 70ºC.
  • Tasas de error de bit menos exigentes que las utilizadas habitualmente en telecomunicaciones, por ejemplo de 10e-15 a 10e-12 en equipamiento DWDM.
  • Alrededor de 1000 horas de pruebas de desgaste, la mitad de lo habitual.

Si bien es cierto que cumplir los requisitos propuestos por Google abarataría el coste de desarrollo de los equipos, esto sucedería en caso de existir un mercado suficiente y unos beneficios esperados que lo justifiquen. Incluso en el caso de que tuviera buena acogida, Vijay dijo que no ven necesidad en seguir poniendo esfuerzo en este tema si no obtienen ganancias con ello.

Por otro lado, Cisco y Brocade ven potencial en la idea de Google. Suponiendo que la temperatura máxima del transceptor óptico es menor, ya que no se está diseñando para el caso peor, sería posible aumentar la potencia en algunos componentes, aumentando el throughput.

Figura 1 Vijay Vusirikala explica la arquitectura de los centros de datos de Google (Light Reading)

Share

Juniper dispone de un equipo de «fotónicos» para desarrollar sus 100G

Ya en mayo de este año Cisco
adquirió CoreOptics, fabricante de transpondedores ópticos, para tener integración vertical que permite satisfacer sus propios requisitos para la construcción de equipamiento a 100 Gbps.

Esta parece ser una de las motivaciones que tiene Juniper para, según informa Light Reading en Juniper Amasses 100G Optical Team, contratar a personal que pueda dedicarse a desarrollar sus propios módulos coherentes de 100G para sus routers. Evidentemente, este movimiento no se produce sólo por copiar la estrategia a su rival, sino porque esperan reducir los costes respecto a los fabricados por terceros, que no reducirán el precio hasta que exista un volumen de fabricación suficiente que lo justifique.

El equipo que integra el área de expertise para este cometido está formado por profesionales en todas las capas, desde expertos en red y subsistemas, sino también físicos, además de comerciales.

Share

Exprimiendo el par de cobre

Si bien el despliegue de redes de fibra hasta el hogar, FTTH, es claramente el futuro, parece que hay fabricantes y operadores dispuestos a que el par de cobre no muera todavía. El tiempo, y sobre todo el coste, nos dirán si esta aproximación es conveniente o no.

En abril de este año, Alcatel-Lucent demostró en pruebas de laboratorio, empleando la tecnología denominada DSL Phantom Mode, la posibilidad de transmitir a 300 Mbps sobre dos pares trenzados de cobre a distancias de 400 metros, o 100 Mbps a 1 km. Este «modo fantasma» consiste en utilizar un canal virtual (o fantasma) que complemente a los dos cables físicos que se utilizan en las líneas de acceso normales. Se utiliza junto a técnicas de vectorización, que permiten eliminar la diafonía entre los cables y de agregación (bonding), mediante la cual se pueden tomar dos líneas físicas individuales y hacer que formen un único canal con la capacidad agregada de ambos.

Esto superaría a la capacidad de VDSL2, que parte de unos 250 Mbps (subida+bajada) y se deteriora rápidamente, hasta 100 Mbps a 500 metros y 50 Mbps a 1 km. Sin embargo, requiere el uso de dos líneas de cobre.

Anteyer, Huawei presentó un prototipo en Hong Kong a 700 Mbps en distancias de 400 metros, utilizando la tecnología SuperMIMO y 4 pares trenzados. Han conseguido incrementar el máximo teórico de 100 Mbps del par de cobre a 175 Mbps, para lo cual hay que hacer frente a la diafonía producida entre 4 pares de cables.

Teniendo en cuenta los despliegues de redes de acceso de fibra en curso, la aplicabilidad de estas técnicas para exprimir la capacidad de transmisión del par de cobre se verá limitada por lo barato que resulte usarlas en comparación con realizar despliegues de FTTH, y no parece fácil, ya que FTTH no sólo proporciona mayor capacidad de transmisión (actual y potencial), sino menores costes de operación y reducciones significativas de la tasa de fallos en el acceso.

Referencias:

Share

Puertos a 100Gbps por menos de $100k

Brocade Communications Systems ha presentado su nuevo router MLXe, con una capacidad de conmutación en el backplane de 15,4 Terabits por segundo sin bloqueo. Se trata de un router IP/MPLS multiservicio para redes backbone, dirigido a datacenters y proveedores de servicios.

Junto a este nuevo chasis, han lanzado una tarjeta con puertos de 100 Gigabit Ethernet que hasta ahora es la más competitiva en precio (al menos en precio de lista).

Figura 1 Router MLXe de Brocade

El router tiene soporte de IPv4, IPv6 y MPLS, con escalabilidad de hasta 10 millones de rutas BGP, un millón de rutas IPv4 en la FIB y 240 000 rutas IPv6 en la FIB.

Tiene configuraciones de 4, 8, 16 y 32 slots, soportando hasta 1536 interfaces de 1 GbE, 256 de 10 GbE y 32 de 100 GbE.

Los casos de uso que publicita Brocade son:

  • Redes Carrier Ethernet a gran escala (metro, nacional y global).
  • Aplicaciones de alta capacidad en el backbone de Internet.
  • Redes de agregación y borde en proveedores de servicio.
  • Servicios de VPN nivel 2/3 basadas en MPLS.
  • Redes de Distribución de Contenidos (Content Delivery Networks, CDN).
  • Puntos de intercambio de Internet (Internet Exchange Points, IXP)

El precio de lista de partida del chasis del router (sin tarjetas) es de $22 245, mientras que la tarjeta a 100G con dos puertos tiene un precio de salida de $194 995, que resulta en un precio de $97497,5 por puerto. Ya es posible hacer pedidos, y se planea que esté disponible de forma general en la primera mitad de 2011.

Figura 2 Ejemplo de backbone con MLXe

La tarjeta, que se muestra en la figura, también la soportan modelos anteriores de los routers de Brocade MLX y Netlron XMR.

Figura 3 Tarjeta con dos puertos a 100G

Noticia en Light Reading: 100G Watch: Brocade Goes Big.

Share