Google quiere relajar los requisitos de la óptica para centros de datos

Ya comentaba en septiembre que Google no está satisfecho con los requisitos actuales para equipos de 100G, por quedarse bien demasiado cortos o pasarse. En aquella ocasión era en la conferencia ECOC, en la cual sugirió que debería hacerse un nuevo acuerdo entre los fabricantes de equipamiento óptico para que se desarrollaran transpondedores adecuados a su situación particular, ya que en otro caso no les compensa pasarse a los 100G.

Esta vez ha sido en el Technology Exploration Forum de la Ethernet Alliance, en un debate llamado Do we Need a New Environmental Standard for the Internet Data Center?, moderado por Chris Cole de Finisar y en el que han participado Richard Kluge de Telecordia, Vijay Vusirikala de Google, Herman Chu de Cisco, Scott Kipp de Brocade y Eddie Tsumura de Sumitomo/Finisar/Opnext.

Vijay Vusirikala, en la foto de abajo, asegura que es necesario relajar los requisitos de los dispositivos que se emplean en los centros de datos, respecto a los que realmente deben cumplir los destinados a equipos de red en los operadores. Como ejemplo, asegura que, dado que nunca se llega a tener temperaturas de 0ºC en un centro de datos, no es necesario tener componentes que puedan soportar temperaturas tan bajas, una idea que está en línea con la filosofía de Google, en la que si un elemento falla en un centro de datos, se tira y se reemplaza por otro.

El moderador Chris Cole aseguró que el primer objetivo de Google en este sentido debería ser, en primer lugar, comprobar si esta idea es del agrado de Facebook o Amazon, u otros poseedores de grandes centros de datos en Internet. En este sentido, Google tratará de desarrollar una especificación para ver si atrae a Facebook y Amazon, buscando reducir la carga de los ciclos de pruebas y diseño que llevan mucho tiempo. Algunas de las sugerencias que aparecen en esta especificación son:

  • Requisitos de soporte de temperaturas reducidos, como por ejemplo una temperatura máxima de 60ºC en lugar de más de 70ºC.
  • Tasas de error de bit menos exigentes que las utilizadas habitualmente en telecomunicaciones, por ejemplo de 10e-15 a 10e-12 en equipamiento DWDM.
  • Alrededor de 1000 horas de pruebas de desgaste, la mitad de lo habitual.

Si bien es cierto que cumplir los requisitos propuestos por Google abarataría el coste de desarrollo de los equipos, esto sucedería en caso de existir un mercado suficiente y unos beneficios esperados que lo justifiquen. Incluso en el caso de que tuviera buena acogida, Vijay dijo que no ven necesidad en seguir poniendo esfuerzo en este tema si no obtienen ganancias con ello.

Por otro lado, Cisco y Brocade ven potencial en la idea de Google. Suponiendo que la temperatura máxima del transceptor óptico es menor, ya que no se está diseñando para el caso peor, sería posible aumentar la potencia en algunos componentes, aumentando el throughput.

Figura 1 Vijay Vusirikala explica la arquitectura de los centros de datos de Google (Light Reading)

Share

Demo en la ONDM 2008

Technorati Tags: , , , , ,

Este año, la ONDM (Conference on Optical Network Design and Modelling) se celebra del 12 al 14 de marzo en el edificio principal de la UPC de Vilanova i la Geltrú, y contará con una demostración de interconexión a nivel de señalización de varios dominios ASON y GMPLS, enmarcado en el proyecto europeo NOBEL2.

Yo estaré llevando/vigilando la parte de la demostración que le toca a TID, supongo 🙂

Share

Restricciones físicas en el plano de control GMPLS (enlaces)

Technorati Tags: , ,

Grupo de trabajo del IETF sobre Plano de control y medidas común:

Mis lecturas para estos días 🙂

Share

Capacitor óptico

Technorati Tags: ,

P- ¿Es posible confinar/almacenar un fotón?

R- Sí, pero se requiere una masa enorme (40 millones la masa del sol) para crear un agujero negro. Y no se puede extraer el fotón del agujero negro

Nada de capacitores ópticos

Fuente: tutorial de redes fotónicas de NTT (2003).

Share