ESTRATEGIA PARA UNA NAVEGACIÓN MÁS RÁPIDA EN GRANDES WEBS

ADSIB

Viernes 18 de julio de 2014

(Fuente: http://noticiasdelaciencia.com )

 

Las grandes páginas web gestionan sus propios “centros de datos”, bancos de decenas e incluso cientos de miles de servidores, todos ellos transmitiendo datos de un lado para otro para satisfacer las solicitudes de los usuarios. Como cualquier red grande y descentralizada, los centros de datos son propensos a la congestión, y si las colas se hacen demasiado largas, los paquetes de datos pueden verse retrasados.

 

El equipo de Hari Balakrishnan, Jonathan Perry, Amy Ousterhout y Devavrat Shah, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, ha desarrollado un nuevo sistema de administración de redes que, en los experimentos, redujo la longitud media de la cola de los routers en un centro de datos de Facebook en un 99,6 por ciento, prácticamente acabando con ellas. Cuando el tráfico de la red era alto, la latencia media (el retraso entre la solicitud de una unidad de información y su llegada), disminuyó casi en la misma proporción, de 3,56 microsegundos a 0,23 microsegundos.

 

Como internet, la mayoría de centros de datos utilizan protocolos de comunicación descentralizados. Cada nodo en la red decide, basándose en sus propias y limitadas observaciones, cuán rápido enviar datos y a qué nodo adyacente. Los protocolos descentralizados tienen la ventaja de la habilidad de gestionar comunicaciones sobre grandes redes con escasa vigilancia administrativa.

 

El sistema del MIT, apodado Fastpass, depende en cambio de un servidor central, el llamado “árbitro”, que decide qué nodos en la red pueden enviar datos a qué otros durante qué períodos de tiempo.

 

Fastpass selecciona rutas a través de la red para evitar la congestión en cualquier punto entre el que envía y el que recibe. (Ilustración: Christine Daniloff/MIT (animación de Jonathan Perry))

 

Con Fastpass, un nodo que desea transmitir datos emite primero una solicitud al árbitro y recibe a cambio una asignación de enrutamiento. Si acudir al árbitro ya consume hasta quizá unos 40 microsegundos, ¿se puede ganar realmente mucho tiempo con todo este método? Sorprendentemente, sí. Los experimentos de los investigadores indican que un árbitro con ocho núcleos o unidades de procesamiento puede dar abasto a una red que transmita 2,2 terabits de datos por segundo. Eso es el equivalente a un centro de datos con 2.000 servidores y conexiones de no menos de 1 gigabit por segundo, transmitiendo a plena capacidad todo el tiempo.