22.03.17

Big Data el 2020: el juego de tronos que deberán resolver las Telcos

Escrito por Pablo Albarracín en Apps & Software, Blog, High Tech, Tech | 0 Comentarios

Tweet about this on TwitterShare on Facebook0Share on Google+0Email this to someoneShare on LinkedIn4Pin on Pinterest0

El 2020 será un año de temer, en cuanto a Big Data se refiere. Casi todas las grandes compañías vinculadas a gestionar y dar inteligencia al Big Data, como Cisco, Ericsson, IBM, Intel, Huawei, HP, Oracle, Splunk, Amazon Facebook o Nest, además de consultoras como Gartner, IDC, Forrester, Accenture o Mckinsey, estiman una cantidad enorme de datos que circularán por las diversas redes que componen la economía digital.

La escalabilidad es el núcleo de este problema. Incluso si todas estas personas y lugares pueden estar conectados con todas estas cosas, eso generará cantidades masivas de datos. Para darnos una idea, estamos hablando de 50 billones de dispositivos conectados a internet (o entre ellos sobre alguna red) para el 2020, dentro del paradigma de la IoT. Ahora bien, llevemos esto a gigabytes, terabytes. Ahora sí la cosa se torna ‘algo’ compleja.

Tomemos el ejemplo de un dispositivo IoT / M2M celular relativamente simple que genera sólo 4 megabytes por mes, lo cual es mucho menos que la mayoría de los datos mensuales de los datos de los teléfonos móviles. Si el mundo alcanza los 50.000 millones de dispositivos en 2020, entonces el número de dispositivos IoT / M2M celulares sería de unos 2.500 millones, y si estos representan alrededor del 5% de todos los dispositivos conectados, los datos que este pequeño subconjunto de todas las cosas conectadas generaría es una locura de 10 millones de terabytes por mes!!!  Solo el 5% de todos los datos que 50 mil millones de cosas conectadas podrían generar!!!

¿Cómo se transportarán todos estos datos? Lo más probable es que sea igual que hoy: a través de las redes de los ISP y sobre la infraestructura de las Telcos. Y la pregunta lógica es: ¿podrán soportar esta avalancha digital?

Todo (o casi todo) está ‘en la nube’, sin embargo, en la oculta realidad de las catacumbas de la tecnología, esa nube es física, es palpable. Es infraestructura. Hablamos de data center, cables que transportan internet (datos, video, audio, voz), torres repetidoras y millones de kilómetros de cableado de las telcos, especialmente en la ‘última milla’. Por lo tanto, más que crear mayor infraestructura, ya están creando más inteligencia a las redes de telecomunicaciones, a través de software. Hablamos de las Redes Definidas por Software (SDN, por sus siglas en inglés), soluciones de redes (networking) donde el control ya no recae en el hardware, sino en el software, a través de una aplicación denominado controlador. En palabras simples, las SDN incorporan inteligencia de software para lograr un mayor rendimiento de la red, sin importar la marca del hardware o los protocolos privados que estos poseen.

Las companías más importantes de networking, telecomunicaciones, infraestructura, cloud, almacenamiento, y en general, todos aquellos involucrados en el desarrollo de tecnologías que mejoren y potencien la velocidad, calidad y cobertura de banda ancha (datos, vide voz, OTT, internet, etcétera) están ocupados en gestionar la avalancha de Big Data que se viene, y evitar que se convierta en un caos para las redes, que son las que soportan la enorme carga de datos.

Para lograr el máximo desempeño que los clientes e industrias demandarán, los proveedores de red deben asegurarse de que exista un conjunto de tecnologías SDN en toda la red, desde la infraestructura de hardware hasta el plano de control y las aplicaciones, y desde el data center hasta los PC. Hay que superar la complejidad actual y mejorar la agilidad del servicio a todo nivel.

Las Telcos tienen mucho en juego: asegurar la viabilidad del aumento de las cargas de trabajo en las redes, lo que debe ser una prioridad si se quiere hacer realidad el sueño de un mundo mega conectado, marcado por internet de alta velocidad, aplicaciones de productividad en la nube y en tiempo real, información útil proveniente desde múltiples dispositivos (IoT / M2M) y una infraestructura de telecomunicaciones que pueda soportar el desafío de un Big Data que entregue inteligencia y no caos.

Internet 2 y el protocolo Open Flow

Chrysalis SDN telecom

La necesidad de contar con redes más potentes e inteligentes, sin tener que hacer grandes inversiones en hardware, no solo es un anhelo de las telcos o los proveedores de data centers, es una necesidad transversal a toda la industria de TI. Es así como el consorcio internacional denominado Internet 2, está liderando las investigaciones tendientes a convertir a internet en una carretera casi sin límites, desarrollando tecnologías avanzadas de redes de fibra óptica para la transferencia de altos niveles de información a gran velocidad.

Internet 2 está desarrollando tecnología SDN que ayude a determinar los flujos de tráfico de red y definir las rutas de aquellos por internet, independiente del hardware involucrado. La idea del consorcio es crear redes virtuales especializadas, donde se pueda separar y direccionar el tráfico. Internet 2 investiga capacidad SDN en su red de 100 Gbps.

El Open Flow es un protocolo que estipula que la configuración y programación de la red, se realice fuera del hardware (en software, sobre el servidor) con el objetivo de generar SDN. Según el modelo de Open Flow es más sencillo para los data centers redirigir el tráfico cuando el hardware falla, puesto que resulta más rápido encontrar los routers que estén funcionando mal o desaprovechando capacidad, con lo que se pueden apagar o encender cuando sea estrictamente necesario. Open Flow permite a switches y routers de diferentes marcas poder ser programados con software en un ecosistema de control central.

El protocolo Open Flow es un trabajo mancomunado entre la Universidad de Stanford y la Universidad de California Berkeley que desde el año 2007 se encuentran desarrollando esta tecnología.

Los ‘cuello de botella’ que se producen aún, ocurren porque algunas redes están en la edad antigua, en que se programaba por dispositivo y no se programaban los procesos asociados a aplicaciones.

El protocolo Open Flow es parte de la  Open Networking Foundation (ONF), organización sin fines de lucro, fundada por Deutsche Telekom, Facebook, Google, Microsoft, Verizon y Yahoo! ideada para mejorar las redes a través de la creación de SDN, bajo la premisa de que la computación en la nube puede desdibujar las distinciones entre ordenadores y redes.

Como vemos el Big Data no es, ni será, un juego de niños. ¿De tronos? Esperemos 3 años.

Tweet about this on TwitterShare on Facebook0Share on Google+0Email this to someoneShare on LinkedIn4Pin on Pinterest0
Tags: , , , , , , ,

Otras Publicaciones