Showing posts from tagged with: iot

La importancia de la seguridad y protección de dispositivos interconectados

Escrito por Julio Serrano en Blog, High Tech, Tech | 0 Comentarios

26.04.17

No hace mucho tiempo, la policía de Arkansas solicitó a Amazon los registros de voz del asistente virtual Amazon Echo' Alexa para resolver un caso de asesinato. El departamento de policía de Bentonville trataba de determinar si la máquina había sido capaz de recoger pruebas incriminatorias sobre una muerte ocurrida en la zona. Por supuesto, la compañía de Seatle se negó rotundamente a entregar los datos, argumentando de la mano de la Primera Enmienda de los Estados Unidos y el derecho a la privacidad del consumidor.

Incluso si estamos conscientes que Alexa siempre está escuchando, no genera mayor preocupación el que diariamente puede estar registrando nuestras conversaciones comunes con familia y amigos.

2

Otro caso que causó revuelo fue el ataque cibernético DDoS más grande de la historia, ocurrido en octubre del año pasado. Algunas de las comunidades online con mayor número de usuarios como Spotify, PlayStation y Reddit se vieron afectadas por la situación.

El ataque fue único en el sentido de que la botnet fue conducida por un malware principalmente, el que se desplegó a través de dispositivos IoT inseguros o con baja seguridad. Cámaras de seguridad, routers y monitores de bebés fueron las tecnologías que abrieron el camino para uno de los peores ataques DDoS que se han visto.

1

Administra tus dispositivos

Estos dos ejemplos nos muestran la forma en cómo nuestro mundo se interconecta por medio de dispositivos. De manera rápida y, en casos, azarosa, la conectividad se despliega dentro de los ecosistemas corporativos. Está claro que las posibilidad y beneficios de este fenómeno son enormes, como lo demostró la plataforma MOBI, quienes arrojaron los datos de clientes que han ahorrado tiempo, dinero y vidas, al estar sus artefactos conectados.

Un gran desafío para las empresas de hoy es lograr identificar estas ventajas de manera gratuita, responsable y estudiada. El despliegue y la gestión de dispositivos debe ser equilibrada a través de un método prudente y centralizado de gestión de todos los otros puntos conectados. Es relativamente fácil extender enormes cantidades de dispositivos IoT al personal de trabajo, sin embargo, es mucho más difícil no sólo saber dónde están ubicados, sino también asegurar que estén funcionando de forma correcta, protegidos y actualizados con el último firmware.

La gestión continua de artefactos interconectados es la parte más difícil. Sin las herramientas adecuadas y los procesos correctos, es mucho más difícil averiguar dónde está cada dispositivo y cómo funciona una vez desplegado. Las soluciones de gestión centralizadas ayudan a concentrar el flujo constante de datos y rutas de comunicación, permitiendo a una empresa monitorear el estado y la funcionalidad de sus dispositivos individuales.

Las TI corporativas siempre han sido paranoicas. Garantizar que el IoT no se convierta en una fuente no deseada de recopilación de información, un firewall backdoor o un host para una botnet masiva, es fundamental hacer de esta tecnología algo ampliamente adoptado, aceptado y confiable. A medida que el IoT continúa evolucionando, la seguridad de los dispositivos y redes empresariales sólo se tornará más crítica para el éxito empresarial.

Con información de infobae, theguardian, mobiwm e IoTagenda.

El centro IoT más caro de la década abre operaciones en Europa

Escrito por Julio Serrano en Blog, Ecosistema, Innovación, Startups | 0 Comentarios

29.03.17

IBM WATSON GROUP inauguró en Munich una sede de Internet de las Cosas de 200 millones de dólares, convirtiéndose en la mayor inversión de la compañía en Europa en más de dos décadas.

Se espera que más de 1000 ingenieros y diseñadores de IBM colaboren con clientes y socios en torno a las nuevas posibilidades que la operación ofrece. Watson trabaja con 6000 partners en todo el mundo, según la compañía.

"Esto es más que un corte de cinta o una ceremonia. No es ni siquiera una feria comercial o conferencia. Esto es un momento clave de la industria. Creemos que es un punto de inflexión, y estamos seguros que la mejor manera de utilizar todo el potencial de esta tecnología verdaderamente transformadora es en conjunto ", indicó Harriet Green, gerente general de IBM Watson, en el Genius of Things Summit.

assets.sourcemedia.com

Como parte de la apertura de las nuevas instalaciones, fueron anunciados varios acuerdos de negocios y tratos con partners, entre los que destacan:

- Asociación con Visa para instalar dispositivos portátiles y conectados en puntos de venta.

- El uso gratuito e ilimitado de la Plataforma IoT de Watson para startups y emprendedores que trabajen con Indiegogo y Arrow Electronics.

-Bosch colaborará para explorar oportunidades industriales.

Algunos clientes se instalarán permanente en las oficinas de IBM en Munich. Los empleados de BMW trabajarán en el nuevo centro para introducir el control de voz Watson en los coches y explorar maneras de crear experiencias personalizadas.

Y así un gran número de otras empresas utilizarán las nuevas dependencias de la compañía para trabajar en pos de transformar a Munich en una ciudad completamente interconectada. Sin duda se espera que esta situación sea replicada por otros gigantes de la industria en diferentes partes del mundo, levantando procesos de innovación abierta y dotando a las ciudades de los dispositivos y tecnología necesaria para llegar a convertirse en las smart cities esperadas que mejoren la calidad de vida de la personas.

El futuro está en las manos de los sensores, datos y la nube

Escrito por Julio Serrano en Apps & Software, Blog, Hardware, Diseño & Makerspace, High Tech, Tech | 0 Comentarios

22.03.17

El surgimiento y auge del Internet de las Cosas (IoT por sus siglas en inglés), las analíticas utilizadas en esos datos y la forma en que la nube puede ser usada para impulsar el valor y manipulación de una amplia gama de "cosas", son temáticas que deben ser investigadas y explicadas dada su relevancia actual.

El tema es claramente importante debido en parte al crecimiento en el mercado que han tenido el IoT y Big Data. Una gran cantidad de datos disponibles especulan la tasa sobre la cual el mercado mundial puede seguir creciendo. The International Data Corporation estima, por ejemplo, que el mercado del Internet de las Cosas, de 700 mil millones de dólares en 2015, crecerá a 1.70 billones en 2020. Además, Gartner indica que el número de dispositivos conectados aumentará alcanzando los 20,8 millones para el mismo año.

internet-things-iot-concept-icons-end-devices-objects-network-standards-business-security-innovation-big-data-vector-51175831

Los sensores están impulsando una explosión de data

Paremos un momento y consideremos dónde actúan los sensores a nuestro alrededor. Las personas pueden administrar y ejecutar sus negocios desde sus celulares, los vehículos están equipados con dispositivos de diagnóstico y control de clima, las casas tienen controles y medidores inteligentes, las fábricas se han convertido en lugares con sensores enlazados a medida que se automatizan, y así la interminable lista suma y sigue.

Los datos recolectados desde dispositivos conectados tienen cada vez más analíticas integradas para abordar una variedad de problemas tales como:
  • Monitoreo de la Salud en el Hogar: rastrear los signos vitales del paciente y sus movimientos alrededor del hogar y enviar alertas a la familia / médicos / hospitales, si ocurren eventos anormales.
  • Monitoreo de Energía: a nivel macro, las utilidades pueden mejorar la eficiencia de la red nacional y la generación de energía. A un nivel micro, los dispositivos domésticos pueden apagarse o colocarse en modo de espera cuando no estén en uso.
  • Gestión de activos: supervisar el estado de los dispositivos en fábricas o lugares de difícil acceso (por ejemplo minas, parques eólicos). Analizar datos y proporcionar diagnósticos en dispositivos para predecir fallas y construir programas de mantenimiento predictivo.
  • Conducción más segura: conectar vehículos para conocer el tráfico vial, monitorear el desempeño del auto y el conductor, ofrecer primas de seguro más bajas para conductores seguros e impulsar la innovación hacia vehículos más eficientes e incluso sin conductor.
  • Logística: rastrear paquetes y contenedores, proporcionar tiempos de llegada estimados a los clientes e identificar los centros de distribución de personal donde las cargas de trabajo son mayores.
  • Medio Ambiente: aprovechar los sensores meteorológicos y de calidad del aire para predecir cuándo la contaminación puede causar problemas en los puntos críticos de la ciudad, monitorear los cambios en los niveles de agua y localizar y rastrear los datos a áreas geográficas más seguras para una mayor precisión en las previsiones locales.
7ff1bde92af91052d2660fce6930a4ae2dee1b9a

Construyendo soluciones IoT para permitir análisis

Cuando se construyen soluciones para usar todos los datos disponibles hay múltiples consideraciones, que en su conjunto, introducen problemas únicos con soluciones a través del Internet de las Cosas.
  • Velocidad: Los datos se mueven normalmente en tiempo real y necesitan ser analizados con la misma simultaneidad. Las soluciones en 'streaming' para identificar cambios en los patrones de datos pueden utilizarse en bucles de retroalimentación para cambiar el funcionamiento de los dispositivos. Por ejemplo, se puede activar un interruptor para liberar presión, basándose en los datos de un sensor que empiezan a mostrar lecturas atípicas o fluctuaciones de presión. Si se hace en tiempo real, esto puede evitar un fallo potencial grave en un gas o oleoducto.
  • Volumen: Las soluciones IoT pueden reunir una variedad de datos diferentes desde vídeo, audio, vibración, temperatura, presión, humedad y más. Todas estas fuentes necesitan ser manejadas, y los datos derivados deben ser analizados apropiadamente. Esto puede resultar en enormes cantidades de procesamiento de información, un caso genuino de uso de Big Data.
  • Ubicación: Los sensores pueden estar en cualquier lugar, y a menudo son móviles. Las redes pueden ser complejas y sus capacidades deben ser cuidadosamente consideradas. En el límite de la red, donde es posible que ocurran inestabilidades debido a problemas ambientales, debe ser incorporada la tolerancia a fallos. La necesidad de agregar datos o construir analíticas para reducir la carga en cualquier punto central, podría ser requerida.
  • Estándares: Actualmente hay muchas maneras en que los sensores de datos pueden comunicarse a un punto central. Bluetooth, Wi-Fi, 2G, 3G y 4G son formas comunes. Todos son útiles y necesitan ser administrados a través de una solución IoT.
  • La Nube: Los sistemas principales que se utilizan para analizar los datos derivados por medio del IoT, se encuentran en la nube. La demanda de recursos variará con el tiempo y los requisitos de procesamiento para modelar, predecir, simular y visualizar el historial almacenado se podrían gestionar desde un punto único.
  • Integración: Las soluciones IoT a menudo necesitan mucho más que sólo datos basados ​​en sensores para ser útiles. Es posible que también sea necesario incorporar informes de ingenieros en sistemas de gestión de contenido, ERP (programación) y sistemas de gestión de activos dentro de la empresa. Esto requiere la integración de todos los componentes en el sistema.
  • Seguridad y privacidad: No es fácil mantener la seguridad de un conjunto de dispositivos que se distribuyen geográficamente, utilizando potencialmente distintos estándares y redes. La privacidad y seguridad pueden ser el problema más difícil para solucionar mediante el IoT.
big-data-cloud

Analíticas IoT en la nube

Todos los datos resultantes desde estos dispositivos, deben fluir en una solución basada en la nube para su análisis. Así, la nube se convierte en el "cerebro" de una solución IoT. Ésta nos permite tomar medidas respecto a los datos recopilados, incluyendo informes simples, modelos predictivos, simulación de resultados diferentes para probar hipótesis y sistemas de bucle cerrado que se comuniquen con dispositivos para detener procesos fallidos y / o solucionar problemas automáticamente.

La nube contiene toda la información histórica de los sensores, y puede integrarla con datos de sistemas tradicionales como ERP, gestión de activos y otras formas de data. Una solución IoT incorpora todas las formas de sistemas - Sistemas de registro, Sistemas de contratación, Sistemas de automatización - para ofrecer información al negocio.Screen Shot 2017-01-24 at 9.17.57 AM

El Internet de las Cosas ha abierto una nueva gama de análisis para administrar los datos de una multiplicidad de fuentes que hace 10 años no se consideraban. La llegada de los sensores de baja potencia y su fácil uso, junto con varios años y vidas registradas, significa que casi cualquier cosa que podamos pensar, un día será analizada mediante instrumentos. El aumento continuo de la información y la necesidad de darle sentido a todo esto, crea una demanda de almacenamiento y sistemas, y los costos resultantes, pueden ser mejor gestionados en la nube.

Con información de IBM y Gartner

Big Data el 2020: el juego de tronos que deberán resolver las Telcos

Escrito por Pablo Albarracín en Apps & Software, Blog, High Tech, Tech | 0 Comentarios

22.03.17

El 2020 será un año de temer, en cuanto a Big Data se refiere. Casi todas las grandes compañías vinculadas a gestionar y dar inteligencia al Big Data, como Cisco, Ericsson, IBM, Intel, Huawei, HP, Oracle, Splunk, Amazon Facebook o Nest, además de consultoras como Gartner, IDC, Forrester, Accenture o Mckinsey, estiman una cantidad enorme de datos que circularán por las diversas redes que componen la economía digital.

La escalabilidad es el núcleo de este problema. Incluso si todas estas personas y lugares pueden estar conectados con todas estas cosas, eso generará cantidades masivas de datos. Para darnos una idea, estamos hablando de 50 billones de dispositivos conectados a internet (o entre ellos sobre alguna red) para el 2020, dentro del paradigma de la IoT. Ahora bien, llevemos esto a gigabytes, terabytes. Ahora sí la cosa se torna 'algo' compleja.

Tomemos el ejemplo de un dispositivo IoT / M2M celular relativamente simple que genera sólo 4 megabytes por mes, lo cual es mucho menos que la mayoría de los datos mensuales de los datos de los teléfonos móviles. Si el mundo alcanza los 50.000 millones de dispositivos en 2020, entonces el número de dispositivos IoT / M2M celulares sería de unos 2.500 millones, y si estos representan alrededor del 5% de todos los dispositivos conectados, los datos que este pequeño subconjunto de todas las cosas conectadas generaría es una locura de 10 millones de terabytes por mes!!!  Solo el 5% de todos los datos que 50 mil millones de cosas conectadas podrían generar!!! ¿Cómo se transportarán todos estos datos? Lo más probable es que sea igual que hoy: a través de las redes de los ISP y sobre la infraestructura de las Telcos. Y la pregunta lógica es: ¿podrán soportar esta avalancha digital? Todo (o casi todo) está 'en la nube', sin embargo, en la oculta realidad de las catacumbas de la tecnología, esa nube es física, es palpable. Es infraestructura. Hablamos de data center, cables que transportan internet (datos, video, audio, voz), torres repetidoras y millones de kilómetros de cableado de las telcos, especialmente en la 'última milla'. Por lo tanto, más que crear mayor infraestructura, ya están creando más inteligencia a las redes de telecomunicaciones, a través de software. Hablamos de las Redes Definidas por Software (SDN, por sus siglas en inglés), soluciones de redes (networking) donde el control ya no recae en el hardware, sino en el software, a través de una aplicación denominado controlador. En palabras simples, las SDN incorporan inteligencia de software para lograr un mayor rendimiento de la red, sin importar la marca del hardware o los protocolos privados que estos poseen. Las companías más importantes de networking, telecomunicaciones, infraestructura, cloud, almacenamiento, y en general, todos aquellos involucrados en el desarrollo de tecnologías que mejoren y potencien la velocidad, calidad y cobertura de banda ancha (datos, vide voz, OTT, internet, etcétera) están ocupados en gestionar la avalancha de Big Data que se viene, y evitar que se convierta en un caos para las redes, que son las que soportan la enorme carga de datos. Para lograr el máximo desempeño que los clientes e industrias demandarán, los proveedores de red deben asegurarse de que exista un conjunto de tecnologías SDN en toda la red, desde la infraestructura de hardware hasta el plano de control y las aplicaciones, y desde el data center hasta los PC. Hay que superar la complejidad actual y mejorar la agilidad del servicio a todo nivel. Las Telcos tienen mucho en juego: asegurar la viabilidad del aumento de las cargas de trabajo en las redes, lo que debe ser una prioridad si se quiere hacer realidad el sueño de un mundo mega conectado, marcado por internet de alta velocidad, aplicaciones de productividad en la nube y en tiempo real, información útil proveniente desde múltiples dispositivos (IoT / M2M) y una infraestructura de telecomunicaciones que pueda soportar el desafío de un Big Data que entregue inteligencia y no caos.

Internet 2 y el protocolo Open Flow

Chrysalis SDN telecom La necesidad de contar con redes más potentes e inteligentes, sin tener que hacer grandes inversiones en hardware, no solo es un anhelo de las telcos o los proveedores de data centers, es una necesidad transversal a toda la industria de TI. Es así como el consorcio internacional denominado Internet 2, está liderando las investigaciones tendientes a convertir a internet en una carretera casi sin límites, desarrollando tecnologías avanzadas de redes de fibra óptica para la transferencia de altos niveles de información a gran velocidad. Internet 2 está desarrollando tecnología SDN que ayude a determinar los flujos de tráfico de red y definir las rutas de aquellos por internet, independiente del hardware involucrado. La idea del consorcio es crear redes virtuales especializadas, donde se pueda separar y direccionar el tráfico. Internet 2 investiga capacidad SDN en su red de 100 Gbps. El Open Flow es un protocolo que estipula que la configuración y programación de la red, se realice fuera del hardware (en software, sobre el servidor) con el objetivo de generar SDN. Según el modelo de Open Flow es más sencillo para los data centers redirigir el tráfico cuando el hardware falla, puesto que resulta más rápido encontrar los routers que estén funcionando mal o desaprovechando capacidad, con lo que se pueden apagar o encender cuando sea estrictamente necesario. Open Flow permite a switches y routers de diferentes marcas poder ser programados con software en un ecosistema de control central. El protocolo Open Flow es un trabajo mancomunado entre la Universidad de Stanford y la Universidad de California Berkeley que desde el año 2007 se encuentran desarrollando esta tecnología. Los 'cuello de botella' que se producen aún, ocurren porque algunas redes están en la edad antigua, en que se programaba por dispositivo y no se programaban los procesos asociados a aplicaciones. El protocolo Open Flow es parte de la  Open Networking Foundation (ONF), organización sin fines de lucro, fundada por Deutsche Telekom, Facebook, Google, Microsoft, Verizon y Yahoo! ideada para mejorar las redes a través de la creación de SDN, bajo la premisa de que la computación en la nube puede desdibujar las distinciones entre ordenadores y redes. Como vemos el Big Data no es, ni será, un juego de niños. ¿De tronos? Esperemos 3 años.