Internet

Así ha evolucionado la infraestructura de red de Google en los últimos 10 años

Así ha evolucionado la infraestructura de red de Google en los últimos 10 años

TechCrunch tiene un interesante artículo donde nos explican cómo Google ha mejorado toda su infraestructura de red durante los últimos años. Y es que detrás de las búsquedas que tu realizas, hay todo un complejo de miles de máquinas que componen sus centros de datos para poder gestionar toda la información que fluye entre sus servidores.

Muy pocos lo saben, pero Google ha estado construyendo su propio hardware y software, siendo su actual configuración de red la llamada “Júpiter” que tiene 100 veces más capacidad que su primera generación y que puede entregar un impresionante ancho de banda de hasta 1 petabit por segundo. La misma compañía dice que este tipo de velocidad permite leer todos los datos escaneados en la Biblioteca del Congreso en tan solo una décima de segundo.

Según Amin Vahdat de Google Fellow, los ingenieros en sus inicios tenían que escribir código optimizado para varios niveles de jerarquía, lo cual era muy doloroso y producía que los servidores conectados en un rack pudieran fallar simultáneamente si había un solo fallo del interruptor.

image02

La necesidad de soportar servicios como YouTube, Gmail, Google Earth y Google Maps, hizo que Google se viera obligada a cambiar radicalmente toda su infraestructura, no obstante en un principio las máquinas estaban desplegadas en redes que tenían como objetivo alcanzar 1Gbps de ancho de banda entre 10,000 servidores. Luego de ello introdujeron una actualización de configuración llamada “Firehose 1.1”, la cual estaba basada en recintos personalizados que consistía en clústers conectados por fibra 10G, que sustituía los cables de red tradicional y que permitía mayores velocidades de transmisión.

La estructura Firehose 1.1 se miraba de esta manera en el 2008:

wt2

Más o menos uno o dos años después, esta infraestructura se transformó en “Saturno”, que ya permitía poder alcanzar velocidades de 87Tbps a 207Tbps. Saturno fue el salto más grande que Google ha dado en su configuración de red porque básicamente estos cubrían los requisitos de ancho de banda que requerían todos sus servicios y las nuevas tecnologías que poco a poco han venido implementando. Google se valió del uso de silicio para permitir una mejor interconexión entre sus servidores.

A modo de comprender mejor cómo administra Google sus servidores, te comento que esta arquitectura actualmente les permite poder tratar a un solo centro de datos como una computadora gigante que distribuye recursos informáticos y de almacenamiento en todos sus diferentes servidores de red.

El hardware de Júpiter le permitió a Google adoptar rápidamente el Networking Software Defined que les ha ayudado a generar innovación a un paso más acelerado. Google ha puesto a disposición todos los documentos donde explican el funcionamiento de sus centros de datos; aunque es muy difícil que una empresa pequeña pueda construir una infraestructura similar, es muy seguro que en la práctica algunas de estas tecnologías podrán a ayudar a los administradores de red a implementar nuevas técnicas que les beneficien tanto a ellos como a sus usuarios.

Internet
@ChambaIraheta

Fundador de Actualizable, apasionado por la tecnología, la música y el mundo de la aviación. El internet es parte importante de su vida.

Más en Internet

Así es el laboratorio de Facebook donde prueba sus apps móviles

Chamba Iraheta13 Julio, 2016

5 Vloggers que deberías de estar siguiendo todos los días

Chamba Iraheta12 Julio, 2016

Megaupload retornará en el 2017 con todo y su base de datos original

Chamba Iraheta11 Julio, 2016

PokeGone: La extensión que te ocultará todo sobre Pókemon Go en internet

Chamba Iraheta11 Julio, 2016

Facebook trabaja en herramienta para que ciegos puedan usar su red

Chamba Iraheta14 Octubre, 2015

Facebook tendrá una sección dedicada a videos para competir contra YouTube

Chamba Iraheta13 Octubre, 2015