Showing posts from tagged with: Big Data

Periodismo e Inteligencia Artificial: entre la rentabilidad y la consolidación de los medios

Escrito por Pablo Albarracín en Apps & Software, Blog, Casos de estudio, Marketing, Tech | 0 Comentarios

04.04.17

Entrevista realizada por Erik Barráez Camero para el Neomedialab de la Universidad Nacional Tres de Febrero de Argentina Eduardo Riveros, columnista en The Huffington Post, considera que cada día se establecerán más acuerdos entre los medios tradicionales y empresas ligadas la informática, en búsqueda de generar la estabilidad del mercado en tiempos de innovación tecnológica. Una mayor productividad y eficiencia en la producción de contenidos fue la premisa que impulsó la integración entre el periodismo y los sistemas de inteligencia artificial. Esta fue la condición que generó, con cierto recelo, los primeros pasos en el tratamiento de noticias generadas por máquinas con aprendizaje automatizado, el uso de la Big Data para simplificar la elaboración de textos sobre temas o coberturas específicas, además de trabajos de investigación promovidos por editores digitales de medios de comunicación de referencia internacional como The Washington Post, The Wall Street Journal, Forbes y CNN, que han apostado a esta tecnología. Luego, se sumarían prácticas relacionadas con la utilización de enormes bases de datos para identificar vínculos que no son tan evidentes para los periodistas, la recomendación de noticias a la carta a través del uso de algoritmos, la implementación de chatbots que hacen hincapié en la personalización de la información y la fluidez de la conversación entre los programas de software (robots) y los usuarios (humanos). Neo Media Lab entrevistó al periodista y experto en tecnología Eduardo Riveros (Máster en Ciencias de la Comunicación y columnista de The Huffington Post), sobre los cambios que ha generado esta simbiosis y cuáles serían las tendencias de desarrollo de la industria informativa en los próximos años. Además, se hizo referencia al debate sobre las implicaciones éticas de la inteligencia artificial en el ejercicio del periodismo con respecto a la resolución de problemáticas como la detección de noticias falsas en la red, la reducción de empleos o la capacidad de verificación de fuentes. La reflexión queda abierta.

-¿Cuáles considera han sido los ejemplos más exitosos de medios que han usado o usan inteligencia artificial en sus protocolos de trabajo?

Creo que es temprano hablar de éxito en la implementación de inteligencia artificial en los medios de comunicación, ya que la industria ha sido un poco cautelosa respecto a los cambios tecnológicos y el tema central es como crear modelos de negocios que hagan rentable los medios en el mercado. Sin embargo, quienes han apalancado en la práctica cambios en el periodismo son empresas relacionadas con la informática, en especial los tradicionales Facebook y Google quienes aún sin ser productores de contenidos tradicionales usan el poder del Machine Learning y Big Data para recomendar noticias a la medida. Lo hacen porque sus sistemas capturan los datos de navegación de los usuarios de Internet, captando sus patrones de consumo noticioso, generando así noticias personalizadas recordando que en términos de marketing y ventas la personalización siempre ha funcionado, y este paradigma lo han aprovechado magistralmente la industria informática…¿Por qué ahora y no antes? Desde hace solo dos años la cantidad de datos explotó exponencialmente, datos que hoy se procesan porque el Machine Learning existe hace décadas. Otro actor importante es la empresa Narrative Science, que basa sus servicios en la generación de noticias a través de un modelo de lenguaje natural donde un robot escribe la noticia reemplazando a los periodistas, en especial a noticias deportivas y financieras donde el dato duro es importante.

– ¿Qué hace falta para que haya una mayor inversión al respecto? ¿Quizá mayor confianza por parte de directores y editores de medios o un mayor músculo de inversión por parte de las empresas?

El éxito está dado por el crecimiento económico de la industria, situación que no se ve en la industria de medios, ya vemos que todos los días se anuncian cierres de medios de comunicación y una reducción en los ingresos publicitarios, ingresos que ahora los capturan Google, Facebook o YouTube, que tienen como ventaja la personalización y segmentación exacta del gusto de los consumidores. Si a los accionistas les demuestras que usar inteligencia artificial es rentable y que disminuye los costos de funcionamiento de su empresa, seguro lo harán. Sin embargo, es probable que la empresa periodística tradicional oriente sus esfuerzos es impulsar su mayor activo: la marca, prestigio que han cosechado luego de años de excelencia periodística. Es probable que los próximos modelos de periodismo provengan del mundo de la informática, y que exista un cruce entre los medios tradicionales y empresas ligadas al Machine Learning y Big Data, creando inversiones conjuntas o alianzas estratégicas para sobrevivir y generar rentabilidad en el mercado.

– Dentro del ámbito de la inteligencia artificial, ¿cuál considera va a ser el área con mayor desarrollo en los próximos años? ¿Análisis de datos, producción de textos, periodismo de investigación, robótica e interacción con usuarios, verificación de la información?

  Pienso que el mayor desarrollo será la robótica e interacción con los humanos y análisis de datos, en principio por el gran desarrollo de la computación cognitiva y la fortaleza de plataformas como Tensor Flow de Google, Watson de IBM y el Microsoft Cognitive Toolkit, donde se pueden crear sistemas con una infinita cantidad de procesamiento de computo que permiten, tanto avanzar en la personalización de noticias, así como el procesamiento de información. Las plataformas están. Ahora, se necesitan profesionales capaces de procesar esa gran data y crear algoritmos para resolver y dar solución a la necesidad que está en la creatividad de la mente humana. El desarrollo de la producción de textos va de la mano con el desarrollo de lo que en términos informáticos llaman “procesamiento de lenguaje natural”, y eso estará dado con el aumento o cesamiento de la data disponible y la motivación que tengan empresas y científicos informáticos en crear emprendimientos e investigaciones para su mejora. Sobre el periodismo de investigación y verificación de información creo que van juntas, en ese sentido el Big Data aplicado a la detección de anomalías financieras será una gran protagonista para quienes se dediquen a investigar sobre los circuitos financieros y económicos del dinero, que es la sangre del sistema.

– ¿Cuáles serían las principales consideraciones éticas en las que se debe reflexionar y trabajar sobre el tema?

Estamos encaminados a la era post humana, donde la inteligencia artificial estará presente no solamente en el mundo del mercado de los medios sino que en toda la sociedad, y tal como en el siglo XIX surgieron grupos que se revelaron a la revolución industrial, lo harán hoy quienes se revelen contra la robotización, digitalización y automatización de la humanidad. Los fundamentos éticos o las normas morales que consuetudinariamente han regido al mundo, y en consecuencia a religiones o movimientos sociales no cambiarán, lo que sí se amplificarán serán los movimientos orientados a la resistencia al cambio.

– El periodismo de conversación a través de los chatbots también está tomando auge en medios como CNN y The Wall Street Journal. ¿Qué destaca de esta modalidad? ¿Una conversación que parezca fluida o el contenido de la información presentada bajo un criterio personalizado?

Hace dos años presenté una ponencia sobre algoritmos en el periodismo y este verano he estado abocado al estudio e implementación de chatbot de inteligencia artificial guiado por el ingeniero y emprendedor en Machine Learning y chatbot, Pat Cornejo, e intercambiando reflexiones y análisis de la plataforma con el ingeniero pionero en Big Data astronómico chileno, Rodrigo Jara. De este ejercicio práctico usamos los principales integradores de procesamiento de lenguaje natural que son el corazón de los sistemas de chatbot. Bajo este contexto, en calidad de usuario, puedo destacar el uso personalizado y de noticias a la carta que entregan el chatbot de CNN y también el de The Guardian, pero a nivel de productor de contenidos destaco el desafío que plantea crear una conversación que parezca fluida, y este desafío es de alto calibre para los profesionales de la comunicación, psicología y de la lingüística, ya que plantea nuevos paradigmas en la teoría de la comunicación, la que tradicionalmente ha estado abocada a la comunicación humano-humano, hoy es robot-humano, donde a través de algoritmos plasmados en un árbol de decisión predeterminado puedo crear un diálogo, mañana será la misma máquina quién creará sus algoritmos. Chrysalis periodismo de datos

– Algunos sectores de la industria del periodismo ven a la Inteligencia Artificial como una amenaza (reducción de empleos, incapacidad de identificar fuentes, noticias falsas, ausencia del factor emocional, etcétera). ¿Es válida la preocupación de este grupo?

Como lo decía anteriormente es normal la resistencia al cambio, siempre pasó en la humanidad y es posible que nuevas ideologías surjan como recicladas de siglos anteriores. La historia ha demostrado que la tecnología tanto destruye como crea nuevos empleos. Pienso que son válidas las preocupaciones de este grupo, que pienso es mayoría, en especial dentro de los profesionales y teóricos del periodismo. Bajo esta reflexión sólo puedo decir que en vez de preocuparse debieran ocuparse, porque la inteligencia artificial para bien o para mal es una realidad y esta misma realidad puede ser utilizada a favor y crear sinergias con profesionales de otras disciplinas y crear nuevos paradigmas, emprendimientos y desarrollos profesionales, en lo particular me adscribo a la reflexión que hace la importante líder de opinión tecnológica argentina, Silvina Moschini, quién en una entrevista me señaló que estamos viviendo el mejor momento de la historia para innovar.

– ¿En cuánto tiempo cree se va a optimizar el reconocimiento de noticias falsas por parte de estos programas de computación inteligente?

Difícil hacer esa predicción, pero creo que será cercano. Plataformas de desarrollo como Tensor Flow o Watson de IBM están generando nuevos espacios para programadores, a los que se tienen que sumar los activistas que usan software libre y los hardcore programmer que “programan en binario”. A modo personal pienso que la “inteligencia colectiva” juega un importante rol ya que son los mismos usuarios quienes denuncian noticias falsas, y como el Big Data aplicado a las finanzas, sirve para detectar patrones de comportamiento anómalo en los circuitos del dinero. Lo mismo pasa con las noticias falsas. El algoritmo exitoso será el que detecte en menor tiempo la noticia falsa y eso puede depender en términos del campo de redes neuronales en la capacidad de descubrir el nodo artificial que más impacto tenga ante los demás nodos, de forma que amplifique exponencialmente la información falsa.

– Otros expertos, por ejemplo, de la Newhouse School of Public Communications, consideran que la Inteligencia Artificial amplificará y mejorará el trabajo del periodista. ¿Coincide con esta premisa?

Toda tecnología tiene como fin mejorar la calidad de vida del ser humano, y gracias a esa premisa pasamos de tallar la piedra a usar la rueda, y de la imprenta a la computación. Hoy solo se repite esa cíclica histórica donde la inventiva del ser humano hace que vivamos más y que nos comuniquemos en tiempo real aún cuando nuestros seres queridos vivan al otro extremo del planeta. La inteligencia artificial liberará a los periodistas de elaborar notas de prensa aburridas a desarrollar mejor sus talentos en hacer mejor periodismo de investigación, o crear nuevos medios de comunicación que sean diferentes a lo conocido y que impacten a la sociedad, tal como las empresas de informática impactaron el mundo de los medios.

– En definitiva, ¿se encuentra la inteligencia artificial dentro de las tendencias y prioridades de la industria del periodismo en 2017?

Por supuesto que sí, el Machine Learning y la Big Data impulsarán aún más la personalización de noticias y los chatbot verán un impulso mayor, recordando que Facebook ya tiene la posibilidad de crear chatbot, a lo que seguro se sumará WhatsApp. Mientras la inteligencia artificial demuestre con números que abarata costos a nivel de industria, los ejecutivos impulsarán su uso motivado por un tema financiero y de modelo de negocios.

– ¿Y los lectores y consumidores? ¿Qué rol jugarán? ¿Cómo percibirán estos cambios?

El verdadero inventor de las tablet, el periodista Roger Fidler, decía que los cambios tecnológicos son más rápidos que los cambios culturales, en estos términos asumo que un sector de los consumidores de información serán más positivos a los cambios y será el “promedio” quienes finalmente captará los cambios o no. Creo que el tradicional grupo que es resistente a los cambios hará lo posible por torcer esta realidad, ya eso lo vemos con Uber o Airbnb. La adopción de dispositivos móviles ya es masivo y el consumidor cada día exige más, que lo sorprendan, así que de la mano de la inteligencia artificial, áreas como la realidad virtual y realidad aumentada empoderaran aún más al consumidor de noticias.   Agradecimientos a Eduardo Riveros y a Erik Barráez Camero

La ‘responsabilidad algorítmica’: ¿por qué rechazaron mi crédito?

Escrito por Pablo Albarracín en Apps & Software, Blog, High Tech | 0 Comentarios

03.04.17

La abundancia y acceso a software cada vez más inteligente (aunque no creo que exista o algún día hubiera existido un software no inteligente) abre miles de puertas a  nuevos negocios en múltiples industrias. Esta realidad, de la que ya se han referido varios pensadores y referentes tecnológicos como Ray Kurzweil, está dejando al ser humano al margen en la toma de algunas decisiones que están siendo 'responsabilidad' de avanzados software quienes entregan predicciones y respuestas muy confiables, tanto, que en muchos casos no es necesaria la supervisión humana. Es por esto que hoy en día vemos a grandes empresas y startups usar tecnología en importantes decisiones, como diagnóstico médico, prevención del crimen y aprobaciones de préstamos bancarios. La aplicación de inteligencia a los datos en estos áreas, lleva a preguntarnos sobre si resulta necesaria una revisión humana a los resultados de un algoritmo. ¿Se lo dejamos todo a los 0 y 1?

La 'responsabilidad algorítmica'

Este nuevo dilema está llevando a la generación de varios estudios académicos. La situación es conocida como 'responsabilidad algorítmica', y está captando el interés de variadas organizaciones de derechos civiles que están analizando las implicaciones que tiene la ciencia de los datos en estas materias. “El Big Data puede y debería causar mejor seguridad, más oportunidades económicas y mejor convivencia”, dice Wade Henderson, presidente de la Conferencia en Derechos Civiles y Humanos. Lo que está en juego aquí es, hasta dónde llegarán los datos en la búsqueda de esa soñada productividad e inteligencia en todos los procesos.
Por ejemplo, en la banca y específicamente en el sector de créditos y préstamos, el 'conocer al cliente', se está tornando algo extremo, gracias a dichos software mega sabios: saben todo de todos.
Imagina que vas a pedir un préstamos a un banco X: ellos extraen información de diversas fuentes, como datos y conexiones desde redes sociales, cómo completas un formulario en línea, dónde a qué hora y qué comiste cuando fuiste al cine, dónde te gusta vacacionar y cuanto gastaste, hasta si piensas hacerte una cirugía estética. Los ejecutivos dicen que conocen a los solicitantes como nunca antes, lo que les permite predecir con mayor precisión si el postulante es confiable o no (independiente de la información dura transaccional que ya posee el banco). Su préstamo fue rechazado y usted no sabe por qué!, usted tiene una buena salud financiera, pero los algoritmos encontraron 'algo' suyo que 'no les agradó'. Fin de la historia.
Esto es posible gracias a los algoritmos que buscan a través de montañas de datos, aprendiendo a medida que escudriñan hasta el fondo. Es un sistema altamente complejo y automatizado. Y no menos polémico.
La preocupación es similar en otros campos, la salud es uno de ellos. Sin embargo, aún las tecnologías no han logrado ser lo suficientemente eficaces como para ayudar realmente a los médicos en la práctica diaria. Expertos de IBM, en colaboración con investigadores médicos de prestigiosas instituciones como la Clínica Cleveland, la Clínica Mayo y el Memorial Sloan Kettering Cancer Center, están avanzando mucho, sobre todo con Watson, que puede leer miles de datos médicos electrónicos ( EMR, por sus siglas en inglés) a un ritmo incomprensible para los seres humanos: muchos miles por segundo, buscando pistas, correlaciones e ideas. Lo que ayuda a mejorar diagnósticos, curas...vidas.

Construye tu ‘Dream Team’ en Data Science

Escrito por Julio Serrano en Blog, Ecosistema, Innovación, Startups | 0 Comentarios

27.03.17

infografia-datascience-01

El futuro está en las manos de los sensores, datos y la nube

Escrito por Julio Serrano en Apps & Software, Blog, Hardware, Diseño & Makerspace, High Tech, Tech | 0 Comentarios

22.03.17

El surgimiento y auge del Internet de las Cosas (IoT por sus siglas en inglés), las analíticas utilizadas en esos datos y la forma en que la nube puede ser usada para impulsar el valor y manipulación de una amplia gama de "cosas", son temáticas que deben ser investigadas y explicadas dada su relevancia actual.

El tema es claramente importante debido en parte al crecimiento en el mercado que han tenido el IoT y Big Data. Una gran cantidad de datos disponibles especulan la tasa sobre la cual el mercado mundial puede seguir creciendo. The International Data Corporation estima, por ejemplo, que el mercado del Internet de las Cosas, de 700 mil millones de dólares en 2015, crecerá a 1.70 billones en 2020. Además, Gartner indica que el número de dispositivos conectados aumentará alcanzando los 20,8 millones para el mismo año.

internet-things-iot-concept-icons-end-devices-objects-network-standards-business-security-innovation-big-data-vector-51175831

Los sensores están impulsando una explosión de data

Paremos un momento y consideremos dónde actúan los sensores a nuestro alrededor. Las personas pueden administrar y ejecutar sus negocios desde sus celulares, los vehículos están equipados con dispositivos de diagnóstico y control de clima, las casas tienen controles y medidores inteligentes, las fábricas se han convertido en lugares con sensores enlazados a medida que se automatizan, y así la interminable lista suma y sigue.

Los datos recolectados desde dispositivos conectados tienen cada vez más analíticas integradas para abordar una variedad de problemas tales como:
  • Monitoreo de la Salud en el Hogar: rastrear los signos vitales del paciente y sus movimientos alrededor del hogar y enviar alertas a la familia / médicos / hospitales, si ocurren eventos anormales.
  • Monitoreo de Energía: a nivel macro, las utilidades pueden mejorar la eficiencia de la red nacional y la generación de energía. A un nivel micro, los dispositivos domésticos pueden apagarse o colocarse en modo de espera cuando no estén en uso.
  • Gestión de activos: supervisar el estado de los dispositivos en fábricas o lugares de difícil acceso (por ejemplo minas, parques eólicos). Analizar datos y proporcionar diagnósticos en dispositivos para predecir fallas y construir programas de mantenimiento predictivo.
  • Conducción más segura: conectar vehículos para conocer el tráfico vial, monitorear el desempeño del auto y el conductor, ofrecer primas de seguro más bajas para conductores seguros e impulsar la innovación hacia vehículos más eficientes e incluso sin conductor.
  • Logística: rastrear paquetes y contenedores, proporcionar tiempos de llegada estimados a los clientes e identificar los centros de distribución de personal donde las cargas de trabajo son mayores.
  • Medio Ambiente: aprovechar los sensores meteorológicos y de calidad del aire para predecir cuándo la contaminación puede causar problemas en los puntos críticos de la ciudad, monitorear los cambios en los niveles de agua y localizar y rastrear los datos a áreas geográficas más seguras para una mayor precisión en las previsiones locales.
7ff1bde92af91052d2660fce6930a4ae2dee1b9a

Construyendo soluciones IoT para permitir análisis

Cuando se construyen soluciones para usar todos los datos disponibles hay múltiples consideraciones, que en su conjunto, introducen problemas únicos con soluciones a través del Internet de las Cosas.
  • Velocidad: Los datos se mueven normalmente en tiempo real y necesitan ser analizados con la misma simultaneidad. Las soluciones en 'streaming' para identificar cambios en los patrones de datos pueden utilizarse en bucles de retroalimentación para cambiar el funcionamiento de los dispositivos. Por ejemplo, se puede activar un interruptor para liberar presión, basándose en los datos de un sensor que empiezan a mostrar lecturas atípicas o fluctuaciones de presión. Si se hace en tiempo real, esto puede evitar un fallo potencial grave en un gas o oleoducto.
  • Volumen: Las soluciones IoT pueden reunir una variedad de datos diferentes desde vídeo, audio, vibración, temperatura, presión, humedad y más. Todas estas fuentes necesitan ser manejadas, y los datos derivados deben ser analizados apropiadamente. Esto puede resultar en enormes cantidades de procesamiento de información, un caso genuino de uso de Big Data.
  • Ubicación: Los sensores pueden estar en cualquier lugar, y a menudo son móviles. Las redes pueden ser complejas y sus capacidades deben ser cuidadosamente consideradas. En el límite de la red, donde es posible que ocurran inestabilidades debido a problemas ambientales, debe ser incorporada la tolerancia a fallos. La necesidad de agregar datos o construir analíticas para reducir la carga en cualquier punto central, podría ser requerida.
  • Estándares: Actualmente hay muchas maneras en que los sensores de datos pueden comunicarse a un punto central. Bluetooth, Wi-Fi, 2G, 3G y 4G son formas comunes. Todos son útiles y necesitan ser administrados a través de una solución IoT.
  • La Nube: Los sistemas principales que se utilizan para analizar los datos derivados por medio del IoT, se encuentran en la nube. La demanda de recursos variará con el tiempo y los requisitos de procesamiento para modelar, predecir, simular y visualizar el historial almacenado se podrían gestionar desde un punto único.
  • Integración: Las soluciones IoT a menudo necesitan mucho más que sólo datos basados ​​en sensores para ser útiles. Es posible que también sea necesario incorporar informes de ingenieros en sistemas de gestión de contenido, ERP (programación) y sistemas de gestión de activos dentro de la empresa. Esto requiere la integración de todos los componentes en el sistema.
  • Seguridad y privacidad: No es fácil mantener la seguridad de un conjunto de dispositivos que se distribuyen geográficamente, utilizando potencialmente distintos estándares y redes. La privacidad y seguridad pueden ser el problema más difícil para solucionar mediante el IoT.
big-data-cloud

Analíticas IoT en la nube

Todos los datos resultantes desde estos dispositivos, deben fluir en una solución basada en la nube para su análisis. Así, la nube se convierte en el "cerebro" de una solución IoT. Ésta nos permite tomar medidas respecto a los datos recopilados, incluyendo informes simples, modelos predictivos, simulación de resultados diferentes para probar hipótesis y sistemas de bucle cerrado que se comuniquen con dispositivos para detener procesos fallidos y / o solucionar problemas automáticamente.

La nube contiene toda la información histórica de los sensores, y puede integrarla con datos de sistemas tradicionales como ERP, gestión de activos y otras formas de data. Una solución IoT incorpora todas las formas de sistemas - Sistemas de registro, Sistemas de contratación, Sistemas de automatización - para ofrecer información al negocio.Screen Shot 2017-01-24 at 9.17.57 AM

El Internet de las Cosas ha abierto una nueva gama de análisis para administrar los datos de una multiplicidad de fuentes que hace 10 años no se consideraban. La llegada de los sensores de baja potencia y su fácil uso, junto con varios años y vidas registradas, significa que casi cualquier cosa que podamos pensar, un día será analizada mediante instrumentos. El aumento continuo de la información y la necesidad de darle sentido a todo esto, crea una demanda de almacenamiento y sistemas, y los costos resultantes, pueden ser mejor gestionados en la nube.

Con información de IBM y Gartner