Showing posts from tagged with: internet

PUCV y Level 3 Communications firman acuerdo de colaboración para impulsar la innovación, I+D e incubación de nuevos negocios

Escrito por Pablo Albarracín en Noticia | 0 Comentarios

22.06.17

La alianza potenciará la Transformación Digital de nuevas empresas y emprendimientos chilenos, incubados desde Valparaíso.

La compañía estadounidense proveedora de servicios de Telecomunicaciones y Tecnologías empresariales a nivel global, Level 3 Communications, y la Pontificia Universidad Católica de Valparaíso, a través de su centro de innovación, Hub Global, han firmado este jueves 22 de junio un acuerdo de colaboración que les permitirá a ambas organizaciones avanzar en la creación de variadas instancias de innovación y desafíos tecnológicos.

Jacqueline Díaz, Gerente de Marketing de Level 3

Por medio de esta alianza estratégica, Level 3 está proporcionando al Hub Global PUCV acceso a Internet de Alta Velocidad, lo que convierte al centro de innovación regional en uno de los que cuenta con mejor conectividad del país. Al estar conectado a la red de fibra óptica de Level 3, el Hub, sus emprendimientos y empresas incubadas, cuentan con tecnologías de telecomunicaciones de clase mundial, capaces de responder en el presente y el futuro a la alta demanda de banda ancha que requieren sus diversas actividades emprendedoras.

De izq. a der / Pedro Huichalaf, ex-sub-secretario de Telecomunicaciones; David Iacobucci de Level 3, rector Claudio Elórtegi, Joel Saavedra, Vicerrector de Investigación y Estudios Avanzados; y Walter Rosenthal, Director de la DIN-PUCV.

El centro de innovación de la PUCV opera y proyecta, desde Valparaíso al mundo, un espacio colaborativo de trabajo que entrega una alta especialización y tareas de excelencia, que han permitido la creación de empresas tecnológicas dinámicas de alto impacto (startups), por medio de procesos de innovación abierta y desafíos de innovación. El Hub centra su actividad en las verticales que dominan la Economía Digital de hoy, como son las tecnologías IoT, Big Data, software y aplicaciones, biotecnología y telecomunicaciones.

Un ameno recorrido por las instalciones del Hub Global se vivió junto al rector.

"Como Pontificia Universidad Católica de Valparaíso, sabemos que solo la incorporación de ciencia, tecnología, innovación y emprendimiento al aparato productivo nacional nos llevará al tan anhelado desarrollo, dice el rector Claudio Elórtegui. "Por ello, esta alianza con Level 3 nos pone en condiciones de poder visualizar y materializar proyectos con tecnologías de primer nivel en nuestro centro de innovación Hub Global, que potencien la labor que venimos realizando".

Rector Elórtegui y David Iacobucci, luego de firmar el convenio.

La alianza también abre nuevas posibilidades de colaboración entre la universidad y Level 3 en tecnologías como servicios de productividad empresarial, computación en la nube, comunicaciones unificadas, entre otros.
“Level 3 ha colaborado sostenidamente con centros de innovación y universidades en todo el mundo, y Chile no es la excepción. La visión es potenciar la economía digital, Investigación y Desarrollo, para incrementar la competitividad a nivel país, en medio de un escenario globalizado, en que la conectividad y tecnologías de valor agregado son un pilar estratégico para la Transformación Digital de las organizaciones productivas, en beneficio de la sociedad y las personas”, destaca David Iacobucci, director de ventas de Level 3 en Chile.

David Iacobucci, Sales Director de Level 3 en Chile.

El acceso dedicado a Internet de Level 3 provee alcance y escalabilidad global sobre su red diversificada, con conectividad en más de 60 países y 500 mercados globales. La capacidad de backbone IP global de Level 3 es superior a los 42 terabits por segundo (Tbps). Adicionalmente, su red posee más de 330.000 kms de fibra óptica, con amplias soluciones de acceso off-net en Norteamérica, Europa, América Latina y Asia Pacífico.

Carlos Calderon, Gerente de I+D de Biotecnos, explica el trabajo que se realiza en las instalaciones de Hub Global dedicadas a la biotecnología.

El Hub además articula un nodo nacional y global de conexión para creación colaborativa en red de empresas de alto impacto, que integre a emprendedores, comunidad universitaria, empresas y gobierno. En este aspecto, la alianza con compañías tecnológicas de clase mundial como Level 3 es clave.

Parte de las instalaciones de los laboratorios de biotecnología.

Con esta alianza, inédita en la región, la PUCV invita a Level 3 a conformar el staff de “embajadores de innovación” al interior del Hub Global. Esto permitirá a Level 3 elrelacionamiento con la cartera de startups incubadas, sus partners en el extranjero, socios de negocios, la red de mentores PUCV, su red de inversionistas y con todo el ecosistema de innovación y emprendimiento de Latinoamérica.   Con la colaboración de Go Comunicaciones

Machine Learning: ¿somos conscientes del uso de nuestra huella digital?

Escrito por Cesar Munoz Rosales en Apps & Software, Blog, Hardware, Diseño & Makerspace, High Tech, Tech | 0 Comentarios

08.05.17

“Ninguna tecnología es tecnológicamente determinista, siempre es socialmente construida”, dice Martín Hilbert, Doctor en Ciencias Sociales y asesor tecnológico de la Biblioteca del Congreso de EEUU. Aunque el concepto de aprendizaje de las máquinas (machine learning) nos puede llevar tan lejos, como una obra de ciencia ficción, muchas de sus aplicaciones forman parte de nuestra vida diaria. Esta tecnología, ya está presente  en áreas tan disímiles como la biotecnología, la genómica, el transporte, el marketing e incluso la política. Sus aplicaciones ya son un hecho. El análisis de grandes volúmenes de datos (Big Data) y el vínculo con la computación de alto rendimiento (HPC, por sus siglas en inglés), ha ido adquiriendo notoriedad, aunque no sin encontrar visiones contrapuestas. El machine learning se refiere a la capacidad de una máquina de funcionar en base a un aprendizaje automatizado. Es un tipo de “inteligencia artificial” que funciona por inducción de conocimiento, donde el objetivo principal es posibilitar que computadores asimilen datos, entreguen respuestas y tomen decisiones por sí mismas. El término se viene utilizando desde los años 50, cuando el famoso Alan Turing creó el Test Turing, donde ponía a prueba la capacidad de una máquina para actuar como humano, cobrando particular relevancia en la última década por el procesamiento de mayores volúmenes de información a través del creciente big data. El aprendizaje automatizado es una parte fundamental en el aprovechamiento del big data. Pensemos que se estima que solamente Facebook genera cerca de 500 terabytes de datos por día, cuestión que crece exponencialmente, por ejemplo, con el auge del Internet de las cosas (IoT, por sus siglás en inglés). Cuando se cuenta con dichos volúmenes de información, es necesario recurrir a tecnologías que puedan lidiar con esta densidad.

Los algoritmos destinados al aprendizaje automatizado pueden generarse de varias formas, donde los más comunes son los supervisados (transaccionales generalmente) y los no supervisados. En el primer caso, se tienen órdenes que ayudan a asimilar los datos en el momento de su análisis; un ejemplo sería el sistema de detección de spam de Google, donde se utilizan datos referidos a las categorizaciones de los usuarios (mensajes spam o legítimos). En el segundo caso, el aprendizaje no es supervisado, vale decir, no se cuenta con una experiencia previa para analizar datos, de modo que se emplea principalmente para buscar patrones (frecuentemente en el análisis de datos científicos o para segmentar públicos).

El cielo es el límite

machine_learning Las alcances de la automatización de procesos con machine learning son variadas y sofistican las nuevas tecnologías a pasos agigantados, permitiendo optimizar recursos y sustituyendo tareas manuales ahora realizadas por máquinas o robots. Por ejemplo. Hoy en día, el aprendizaje de máquinas puede ser utilizado para evaluar la tasa de éxito de intervenciones quirúrgicas según estadísticas de pacientes; segmentación de públicos para efectividad de mensajes (de las Telcos por ejemplo); predicciones climáticas; control de tráfico por afluencia de vehículos; mercado de valores; eficiencia en transporte; etcétera. Esta tecnología es parte cada vez más importante en la toma de decisiones. Sin embargo, la idea del manejo de grandes volúmenes de datos trae a colación temas como la vigilancia cibernética y el potencial uso que pudiese tener nuestra huella digital (rastro que queda en nuestra actividad por internet). Tal como lo advirtió recientemente Martin Hilbert, Doctor en Ciencias Sociales y asesor tecnológico de la Biblioteca del Congreso de EEUU, se vuelve preocupante cómo se está interpretando la idea de 'privacidad'.
“Vivimos en un mundo donde los políticos pueden usar la tecnología para cambiar cerebros, los operadores de telefonía móvil predecir a dónde iremos y los algoritmos de redes sociales descifrar nuestra personalidad”, dijo Hilbert  en entrevista a la BBC, refiriéndose a la importancia de reinventar la democracia representativa para evitar una “dictadura de la información”.
La idea del machine learning es un punto de partida, pues evidentemente la epistemología admite múltiples enfoques y acepciones. Para “aprender”, hacen falta inteligencias y en los humanos, por ejemplo, encontramos sistemas heterogéneos y abiertos, con dinámicas complejas y en muchos casos aún por explorar. El mismo Turing abordó en Computing Machinery and Intelligence, los problemas para definir los alcances de cuestiones como el “pensamiento”, al momento de construir una máquina “pensante”. Incluso podríamos ir más allá y adentrarnos en clásicos del cyberpunk, si quisiéramos imaginar un futuro tecnológico distópico. Lo que sí es un hecho, es la relevancia que cobra entender los alcances de nuestro rastro por el ciberespacio y el uso de los grandes volúmenes de datos.

Big Data el 2020: el juego de tronos que deberán resolver las Telcos

Escrito por Pablo Albarracín en Apps & Software, Blog, High Tech, Tech | 0 Comentarios

22.03.17

El 2020 será un año de temer, en cuanto a Big Data se refiere. Casi todas las grandes compañías vinculadas a gestionar y dar inteligencia al Big Data, como Cisco, Ericsson, IBM, Intel, Huawei, HP, Oracle, Splunk, Amazon Facebook o Nest, además de consultoras como Gartner, IDC, Forrester, Accenture o Mckinsey, estiman una cantidad enorme de datos que circularán por las diversas redes que componen la economía digital.

La escalabilidad es el núcleo de este problema. Incluso si todas estas personas y lugares pueden estar conectados con todas estas cosas, eso generará cantidades masivas de datos. Para darnos una idea, estamos hablando de 50 billones de dispositivos conectados a internet (o entre ellos sobre alguna red) para el 2020, dentro del paradigma de la IoT. Ahora bien, llevemos esto a gigabytes, terabytes. Ahora sí la cosa se torna 'algo' compleja.

Tomemos el ejemplo de un dispositivo IoT / M2M celular relativamente simple que genera sólo 4 megabytes por mes, lo cual es mucho menos que la mayoría de los datos mensuales de los datos de los teléfonos móviles. Si el mundo alcanza los 50.000 millones de dispositivos en 2020, entonces el número de dispositivos IoT / M2M celulares sería de unos 2.500 millones, y si estos representan alrededor del 5% de todos los dispositivos conectados, los datos que este pequeño subconjunto de todas las cosas conectadas generaría es una locura de 10 millones de terabytes por mes!!!  Solo el 5% de todos los datos que 50 mil millones de cosas conectadas podrían generar!!! ¿Cómo se transportarán todos estos datos? Lo más probable es que sea igual que hoy: a través de las redes de los ISP y sobre la infraestructura de las Telcos. Y la pregunta lógica es: ¿podrán soportar esta avalancha digital? Todo (o casi todo) está 'en la nube', sin embargo, en la oculta realidad de las catacumbas de la tecnología, esa nube es física, es palpable. Es infraestructura. Hablamos de data center, cables que transportan internet (datos, video, audio, voz), torres repetidoras y millones de kilómetros de cableado de las telcos, especialmente en la 'última milla'. Por lo tanto, más que crear mayor infraestructura, ya están creando más inteligencia a las redes de telecomunicaciones, a través de software. Hablamos de las Redes Definidas por Software (SDN, por sus siglas en inglés), soluciones de redes (networking) donde el control ya no recae en el hardware, sino en el software, a través de una aplicación denominado controlador. En palabras simples, las SDN incorporan inteligencia de software para lograr un mayor rendimiento de la red, sin importar la marca del hardware o los protocolos privados que estos poseen. Las companías más importantes de networking, telecomunicaciones, infraestructura, cloud, almacenamiento, y en general, todos aquellos involucrados en el desarrollo de tecnologías que mejoren y potencien la velocidad, calidad y cobertura de banda ancha (datos, vide voz, OTT, internet, etcétera) están ocupados en gestionar la avalancha de Big Data que se viene, y evitar que se convierta en un caos para las redes, que son las que soportan la enorme carga de datos. Para lograr el máximo desempeño que los clientes e industrias demandarán, los proveedores de red deben asegurarse de que exista un conjunto de tecnologías SDN en toda la red, desde la infraestructura de hardware hasta el plano de control y las aplicaciones, y desde el data center hasta los PC. Hay que superar la complejidad actual y mejorar la agilidad del servicio a todo nivel. Las Telcos tienen mucho en juego: asegurar la viabilidad del aumento de las cargas de trabajo en las redes, lo que debe ser una prioridad si se quiere hacer realidad el sueño de un mundo mega conectado, marcado por internet de alta velocidad, aplicaciones de productividad en la nube y en tiempo real, información útil proveniente desde múltiples dispositivos (IoT / M2M) y una infraestructura de telecomunicaciones que pueda soportar el desafío de un Big Data que entregue inteligencia y no caos.

Internet 2 y el protocolo Open Flow

Chrysalis SDN telecom La necesidad de contar con redes más potentes e inteligentes, sin tener que hacer grandes inversiones en hardware, no solo es un anhelo de las telcos o los proveedores de data centers, es una necesidad transversal a toda la industria de TI. Es así como el consorcio internacional denominado Internet 2, está liderando las investigaciones tendientes a convertir a internet en una carretera casi sin límites, desarrollando tecnologías avanzadas de redes de fibra óptica para la transferencia de altos niveles de información a gran velocidad. Internet 2 está desarrollando tecnología SDN que ayude a determinar los flujos de tráfico de red y definir las rutas de aquellos por internet, independiente del hardware involucrado. La idea del consorcio es crear redes virtuales especializadas, donde se pueda separar y direccionar el tráfico. Internet 2 investiga capacidad SDN en su red de 100 Gbps. El Open Flow es un protocolo que estipula que la configuración y programación de la red, se realice fuera del hardware (en software, sobre el servidor) con el objetivo de generar SDN. Según el modelo de Open Flow es más sencillo para los data centers redirigir el tráfico cuando el hardware falla, puesto que resulta más rápido encontrar los routers que estén funcionando mal o desaprovechando capacidad, con lo que se pueden apagar o encender cuando sea estrictamente necesario. Open Flow permite a switches y routers de diferentes marcas poder ser programados con software en un ecosistema de control central. El protocolo Open Flow es un trabajo mancomunado entre la Universidad de Stanford y la Universidad de California Berkeley que desde el año 2007 se encuentran desarrollando esta tecnología. Los 'cuello de botella' que se producen aún, ocurren porque algunas redes están en la edad antigua, en que se programaba por dispositivo y no se programaban los procesos asociados a aplicaciones. El protocolo Open Flow es parte de la  Open Networking Foundation (ONF), organización sin fines de lucro, fundada por Deutsche Telekom, Facebook, Google, Microsoft, Verizon y Yahoo! ideada para mejorar las redes a través de la creación de SDN, bajo la premisa de que la computación en la nube puede desdibujar las distinciones entre ordenadores y redes. Como vemos el Big Data no es, ni será, un juego de niños. ¿De tronos? Esperemos 3 años.

Yo, «netizen»

Escrito por Pablo Albarracín en Noticia | 0 Comentarios

02.09.15

Vivimos en un mundo complejo, veloz y tecnologizado. Estamos rodeados de  amenazas e incertidumbres, contamos con conectividad y comunicación instantánea como nunca antes en la historia. Nuestros trabajos se transforman y, de paso, queremos recompensas rápidas, rápidas como el WhatsApp que enviamos. Todo es nuevo. Todo es 'social'.  Hace algún tiempo surgió el término "netizen", una mezcla anglosajona entre red y ciudadano, y que grafica bastante bien al nuevo individuo-usuario-avatar, de la Economía Digital. Pero, ¿somos realmente ciudadanos en red, más allá del uso de Facebook, WhatsApp o Twitter?, ¿tener algunas cuentas en redes sociales recreativas nos convierte en un "netizen"? ¿Qué sucede al cerrar sesión?  Y en nuestros trabajos, ¿somos netizens?, ¿utilizamos las herramientas sociales para mejorar nuestra productividad, creatividad o relaciones laborales?

El gran dilema de hoy es cómo podemos ser más eficientes y felices en nuestros trabajos utilizando las tecnologías disponibles. La respuesta: a través de la colaboración. Pero, cómo se pone en práctica esta colaboración (colaboración tanto interna como externa): con las herramientas de redes sociales, o mejor dicho, con las soluciones de social media y social business.

Quartz_HP_Messaging_Final (Crédito infografía: HP Matters)   El netizen como tal, debe entender el poder de lo 'social', que va mucho más allá de Facebook o Instagram. Un verdadero netizen debe apropiarse del paradigma social para su beneficio personal, laboral, físico y mental.

La colaboración, el compartir ideas, conocimientos, soluciones o contactos, puede generar una bola de nieve de perfecta productividad. La inteligencia colectiva es el mayor atributo de una compañía, y al igual que los más finos y esquivos diamantes, hay que saber extraerla y pulir.

La prestigiosa firma de investigación McKinsey es clara al respecto. En uno de sus estudios sobre las nuevas tendencias de productividad en las empresas y organizaciones, señala que "el principal valor de las tecnologías sociales es el mejoramiento de la comunicación y colaboración a través de la empresa", puntualizando que el social media "es una herramienta de productividad empresarial como lo fue el e-mail en los años 90".

Más antecedentes. El estudio de Avaya, The Autonomous Customer 2013, dice que 95% de los líderes de negocio encuentra clave el social business, pero 59% dice no tener un plan definido. Esto debería alarmar a los CEOs, ya que el mismo estudio detalla que 55% de usuarios ha interactuado con una marca a través de Facebook o Twitter; 80% hace búsquedas online antes de decidir una compra, y 39% contribuye con comentarios o reseñas de productos.

Las fichas están tiradas. Solo falta darle al dado. Los software sociales abundan (ver infografía) e irán en aumento. La idea es comenzar a aplicarlos en nuestra vida diaria-laboral y comenzar a concebir nuestros trabajos como un esfuerzo colectivo, horizontal y en donde las recompensas serán grupales. Los silos deben quedar atrás. El "yo netizen" está en todos lados esperando cerrar sesión en Facebook, para abrir otra en una red más útil. Solo falta un pequeño gran empujón...de los jefes quizás? de los demás netizens? Y tu, ¿te consideras un netizen?