El MIT (Massachusetts Institute of Technology) y Microsoft avanzan en la investigación relacionada con un nuevo método para gestionar el tráfico en las redes de la tecnología cloud o lo que es lo mismo mejorar la infraestructura cloud.
Este sistema, al que han bautizado como TeaVaR, se inspira en las teorías de riesgo financiero que emplean los inversores en el trabajo en mercados de valores como Wall Street.
Así mismo las organizaciones introducen un sistema basado en la gestión de riesgo para optimizar las redes sobre las que se apoya la tecnología en la nube.
Objetivo general
Según el documento que están presentando en SIGCOMM, el foro de la Association for Computing Machinery que se celebra estos días en Pekín, en el desarrollo de este sistema se trata de paliar las deficiencias que pueden encontrar los proveedores de servicios en la nube en el aprovechamiento de las redes de fibra óptica que emplean.
Los proveedores utilizan software de ingeniería de tráfico que se encarga de optimizar la cantidad de datos que se pueden transferir al mismo tiempo a través de la infraestructura y así mejorar infraestructura cloud. Con esto se pretende dar la máxima disponibilidad para los usuarios, pero en este proceso se pueden producir imprevistos, fallos y cortes inesperados. Para garantizar que el servicio no se resienta, los proveedores mantienen muchos enlaces inactivos o casi inactivos, con un uso muy bajo, que se emplean en caso de que haya problemas en la red principal.
Aquí es donde los investigadores han aplicado modelos matemáticos. Los softwares tradicionales de gestión de red no distinguen entre qué enlaces pueden soportar más tráfico y, por tanto, no optimizan las cargas para las infraestructuras. El modelo TeaVaR, que adapta la teoría de gestión de riesgo financiero, ajusta la relación entre uso de red y disponibilidad.
La teoría matemática de riesgo que adaptan cuantifica la pérdida media de dinero en inversión en acciones.
Lo explican así: si tiene un valor condicional de 99% de un día con un riesgo de 50 dólares, su pérdida esperada en el peor escenario de ese 1% es de 50 dólares. Pero el 99% de las veces mejorará esa inversión. Trasladado a redes, esto implica que se garantiza que los datos llegarán a su destino el 99,9% de las veces, mientras que la pérdida de tráfico se mantiene al mínimo durante el 0,1% de las oportunidades.
Para realizar esta formulación, los investigadores vincularon estadísticamente el valor de tres años de potencia de la señal de las redes de Microsoft, con las que la compañía conecta sus centros de datos, con una distribución de probabilidad de enlaces fallidos.
Estas probabilidades se obtuvieron al verificar la calidad de la señal de cada enlace cada 15 minutos. Si la calidad de la señal se situaba por debajo de un determinado umbral, se daba como error, mientras que si no era así se consideraba que funcionaba.
A partir de aquí, el modelo generó un tiempo medio de actividad o inactividad, la probabilidad de que hubiese incidentes y, con esto, se pudo predecir cuándo fallarían los enlaces más problemáticos en un período de tiempo determinado.
El modelo, por tanto, calcula las posibilidades de que se produzca un fallo en los enlaces entre centros de datos de todo el mundo —de forma análoga a lo que en Bolsa se calcula como la predicción de la volatilidad de las existencias— y ejecuta un motor de optimización que asigna tráfico por las mejores rutas para minimizar pérdidas, mientras maximiza el uso general de la red. Así se evita mantener enlaces inactivos.
Ventaja principal: disminución de costos
Y en conclusión, entre las ventajas de este sistema, cuyo código está disponible gratuitamente en GitHub, se cita un mayor ahorro para los proveedores en infraestructura y también un mayor control del consumo energético.