Showing posts from tagged with: Big Data

Metric Arts expondrá su tecnología en ‘la meca’ de la inteligencia artificial

Escrito por Chrysalis en Noticia | 0 Comentarios

21.02.18

La compañía chilena Metric Arts, miembro de la cartera de Chrysalis, expondrá en la mayor conferencia mundial sobre Inteligencia Artificial y Deep Learning con su trabajo “AstroCV - A Computer Vision library for Astronomy”. Hablamos de la conferencia “GPU Technology Conference” (GTC), la mayor conferencia global sobre Inteligencia Artificial y Deep Learning organizada por NVIDIA, la cual se desarrollará desde el 26 de Marzo próximo en Silicon Valley.

En ella se expondrán temas como conducción autónoma, ciudades inteligentes, GPU, computación de alto rendimiento (HPC), realidad virtual, videojuegos, entre otras tecnologías.

“Las aplicaciones astronómicas se han convertido en un laboratorio excepcional para el desarrollo de innovación”, dice Patricio Cofre, Gerente General de Metric Arts. “Actualmente estamos incluyendo en nuestros productos basados en visión computacional, que abarcan aplicaciones como el control de la evasión en el transporte, medición automática de tiempos de espera, o el control de uso de implementos de seguridad laboral”.

AstroCV es un software de visión computacional de código abierto para el procesamiento y análisis de datos astronómicos de gran tamaño, permitiendo el reconocimiento, segmentación y clasificación de Galaxias y se puede entrenar para otros objetos astronómicos, como estrellas y planetas.

andromeda-galaxy-755442_640

Se basa en técnicas de aprendizaje automatizado (redes neuronales profundas) y como tal, requiere de un gran volumen de datos para generar este aprendizaje, así como una gran capacidad de cómputo, lo que actualmente puede lograrse utilizando unidades gráficas de procesamiento (GPU).

Roberto González, Doctor en astronomía, co-desarrollador del software y parte del equipo de Metric Arts, indica que, “trabajar con código abierto ha sido fundamental para potenciar la calidad del software, programado en el lenguaje C++ y arquitectura CUDA”. Según González, utilizar un lenguaje de bajo nivel tiene la particularidad de ser más eficiente, por interactuar directamente con el hardware y así obtener un mejor rendimiento.

La empresa cuenta con apoyo de CORFO, Chrysalis la incubadora de negocios de la PUCV, ProChile, NVIDIA y Microsoft, partners con quienes está trabajando su plan comercial y de internacionalización. La empresa buscará también durante el 2018 crear el primer meetup chileno en computación de alto desempeño (HPC por su sigla en inglés).

Santiago,_Microsoft,_not_Ottobock_(15249572471)

“Este tipo de aplicaciones no resultaba posible hace 10 o incluso 5 años atrás, ya que las capacidades de procesamiento requeridas eran simplemente muy costosas y cada pequeño cambio requería de mucho trabajo manual”, dice Francisco Bravo, Gerente de Innovación de Metric Arts. “Hoy los GPUs modernos nos entregan una flexibilidad y capacidad de cómputo sin precedentes, permitiendo desarrollar una solución que, por ejemplo clasifique galaxias, pero que puede de manera flexible entrenarse para identificar personas u objetos en distintos contextos, entregando resultados en tiempo real”.

Viernes de tendencias: ¿qué es un científico de datos?

Escrito por Chrysalis en Noticia | 0 Comentarios

16.02.18

El big data y las nuevas tecnologías están requiriendo de profesionales con habilidades en ciencias de la computación, matemáticas, estadística y negocios, algo que se está volviendo más que un reto.

Seguramente usted ya alcanzó los 500 contactos en LinkedIn y si aún no entra en aquel ‘selecto’ grupo, quizás deba poner atención en la herramienta de esta red social profesional ‘Gente a la que podrías conocer’, puesto que si conoces a X persona es probable que puedas conocer a ciertos contactos de dicha persona.

Esto que puede verse tan simple, fue obra del científico de datos (data scientists), Jonathan Goldman, quien descubrió esta correlación para aumentar el número de seguidores de LinkedIn. Una ‘sencilla’ herramienta.

Mientras que Chrysalis no se queda atrás. Dentro de la cartera de compañías existen dos que se destacan por el uso inteligente del big data y donde obviamente deben trabajar con científicos de datos: hablamos de Metric Arts y Analitic. 

Lo que realizó Goldman, analizar y correlacionar big data para obtener ventajas competitivas, es lo que están haciendo compañías como Amazon, Facebook, LinkedIn, Google o YouTube, que buscan cómo utilizar de mejor manera la enorme cantidad de datos que están acumulando día tras día. Quien se encarga de esta labor es el Científico de Datos (CD), una nueva especialidad llamada a convertirse en una de las profesiones más relevantes, y mejor pagadas, del mundo hiperconectado en que vivimos.

¿Qué es un Científico de Datos?

Un CD es un profesional que debe provenir y dominar (ojalá con estudios de Ph.D. o Magíster) las ciencias matemáticas y  la estadística, además de acabados conocimientos de programación (y sus múltiples lenguajes), ciencias de la computación y analítica. Es un híbrido entre tecnología y análisis cuantitativo. No se descartan también estudios en física, biología o ciencias sociales.

code-944504_960_720

Por otro lado, no menos relevante, el CD debe contar con conocimientos y habilidades para saber comunicar lo que va encontrando, tanto al área de negocios como a TI, además de ser un buen transformador, decidor e interlocutor. No se trata solo de dominar la tecnología, la programación o las bases de datos, sino que el CD debe ser capaz de modificar (para mejor) la dirección del negocio.

Las grandes compañías y corporaciones, desde esferas tan disímiles como pueden ser la banca, el retail, las redes sociales, el comercio online, el turismo, o los centros de investigación científica, se dieron cuenta que el big data no sirve de nada si no se le extrae la inteligencia que posee. Es por ello, que el CD está llamado a cambiar las decisiones de las compañías identificando nuevas oportunidades de negocio. Colosal labor.

Por ejemplo, según señala la compañía estadounidense SAS, una de las líderes en soluciones de inteligencia de negocios (BI), soluciones estadístcas y big data, Google utiliza sus 600 científicos de datos para redefinir su core de búsquedas y sus algoritmos de ad-serving, Zynga usa sus CD para seleccionar juego a juego productos relacionados a sus clientes, mientras que General Electric, optimiza los intervalos de mantención de productos industriales, y algunas compañías de análisis de big data en salud, utilizan los CD para descubrir el tratamiento más efectivo para diferentes enfermedades.

El problema: ¿dónde encontrarlos?

Si bien el big data está atravesando a múltiples compañías (muchas de ellas de Latinoamérica incluso), aún es una tarea compleja contratar o seleccionar un buen equipo de CD para que se haga cargo del big data. Como señalamos con anterioridad, los CD provienen del mundo de las ciencias de la computación, las matemáticas y la estadística, y es precisamente desde estas disciplinas desde donde las empresas extraen sus CD.

Lo que están haciendo algunas compañías es crear dentro de su fuerza laboral grupos a los que se los capacita en estas ciencias. Tal es el caso de EMC, que creó el programa de entrenamiento Data Science and Data Analytics, convencidos de que contar con habilidades en esta área mejoraría sus productos de big data y la relación con sus clientes.

Mientras que SAS está colaborando con la Universidad de Carolina del Norte para crear un master en analítica, que incluye entrenamiento para big data en la malla curricular. O el caso del programa de Silicon Valley, Insight Data Science Fellow Program, que toma a científicos por 6 semanas y los entrenan en habilidades propias de un CD.

Tampoco es descartable, para quien esté interesado en especializarse como CD, poner atención en seguir ciertos cursos o materias. “Trate de tomar algunos de los cursos de matemáticas de pregrado que se haya perdido, como Álgebra Lineal, Cálculo Avanzado, Diferencial, Probabilidad y estadística son los más importantes. Después de eso, tomar algunos cursos de aprendizaje automático”, dice Peter Skomoroch, ex CD de LinkedIn.

Más simple: llame a los expertos de Metric Arts o Analitic y aclare sus dudas.

Caso de estudio: Teradata y la detección del fraude financiero con AI

Escrito por Chrysalis en Blog, Casos de estudio, High Tech, Negocios, Tech | 0 Comentarios

23.10.17

La compañía estadounidense Teradata anunció que Danske Bank, destacado prestador de servicios financieros en los países nórdicos, ha trabajado con Think Big Analytics, una compañía de Teradata, para crear y lanzar una plataforma de detección de fraudes de vanguardia controlada por Inteligencia Artificial (AI, por sus siglas en inglés) y de la cual se espera que alcance 100% de ROI en el primer año de su implementación. El motor utiliza aprendizaje automático para analizar decenas de miles de características latentes, clasificando en tiempo real millones de transacciones bancarias realizadas en línea para brindar información útil sobre actividades fraudulentas reales y falsas. Al reducir significativamente el costo de investigar los falsos positivos, Danske Bank aumentó la eficiencia general y ahora puede obtener importantes ahorros. “El fraude en las solicitudes es un problema grave y prioritario para los bancos. Hay evidencia de que los delincuentes se están volviendo expertos y emplean técnicas sofisticadas de aprendizaje automático para atacar, por lo que es fundamental utilizar técnicas de avanzada, como el aprendizaje automático, para atraparlos”, afirmó Nadeem Gulzar, director de Analíticas Avanzadas de Danske Bank.

“El banco entiende que el fraude va a empeorar a mediano y largo plazo, debido a la digitalización de las operaciones bancarias y la prevalencia de las aplicaciones de banca móvil. Reconocemos la necesidad de utilizar las técnicas más avanzadas para enfrentar a los estafadores, no donde se encuentran hoy, sino donde van a estar mañana. Gracias a la IA, ya redujimos en un 50% los falsos positivos y, por ello, pudimos reasignar la mitad de los recursos de la unidad de detección de fraudes para que se ocuparan de cuestiones de mayor responsabilidad”, dice Gulzar.
Los profesionales de Think Big Analytics de Teradata comenzaron a trabajar con Danske Bank en el otoño de 2016, para perfeccionar su equipo de analíticas avanzadas con conocimientos especializados sobre cómo utilizar los datos para generar mayores beneficios para todo el negocio. Desde el punto de vista del modelado, los casos de fraude aún son raros: alrededor de un caso en cada 100.000. El equipo logró tomar los falsos positivos de los modelos y los redujo en un 50%. Al mismo tiempo, pueden encontrar más fraudes, con lo que la tasa de detección aumentó en casi 60%. El programa antifraude de Danske Bank es el primero en introducir técnicas de aprendizaje automático en la producción, al tiempo que desarrollan modelos de aprendizaje profundo para poner a prueba los modelos. “Todos los bancos necesitan una plataforma analítica avanzada y escalable, así como un plan estratégico de digitalización para incorporar la ciencia de datos en la organización”, explicó Mads Ingwar, director de Servicios al Cliente de Think Big Analytics.
“Para las transacciones en línea, pagos móviles y tarjetas de crédito, los bancos necesitan una solución en tiempo real: la plataforma de detección de fraudes de vanguardia impulsada por IA que hemos desarrollado en colaboración con Danske Bank clasifica las transacciones entrantes en menos de 300 milisegundos. Esto significa que cuando los clientes van al supermercado a comprar comestibles, el sistema puede clasificar la transacción en tiempo real y proporcionar información útil sin demora. Comenzaremos a ver este tipo de solución en todas las organizaciones del sector de servicios financieros”, finaliza Ingwar.
  Crédito imagen principal

Teradata: se acabaron los pretextos, llegó el momento de aplicar analítica en todo negocio

Escrito por Pablo Albarracín en Apps & Software, Blog, Casos de estudio, High Tech, Negocios | 0 Comentarios

22.08.17

Artículo escrito por Antonio Gómez, Account Manager, Banking & Financial Services, Teradata México. Actualmente, la analítica en los negocios es bastante común y ampliamente adoptada en diferentes sectores e industrias, en organizaciones de diversos tamaños y en distintas regiones geográficas. La consultora global IDC proyecta que el mercado de la analítica crecerá alrededor de 10% en los próximos meses. ¿El motivo?: existe suficiente evidencia de que la toma de decisiones basada en analítica de datos propicia una contundente diferencia competitiva. Un factor clave para esa proyección es que las soluciones analíticas hoy en día son bastante asequibles para empresas de todos los tamaños y de muy alta calidad al estar disponibles a través de la nube, reduciendo drásticamente los tiempos de implementación. Esto se traduce en una amplia gama de oportunidades para los proveedores de soluciones a fin de proponer o mejorar las iniciativas analíticas con sus clientes, generando mayor credibilidad y convirtiéndose inevitablemente en asesores estratégicos para su negocio.

El impacto de los medios sociales

En la actualidad, incluso las empresas más pequeñas dependen de Twitter, Facebook y de la publicidad en LinkedIn o Google para encontrar nuevos clientes y mejorar su marca. ¿Pero de verdad entienden cuál es el impacto en su negocio y lo que deberían hacer para sacarles mayor provecho? Un motor analítico serio es capaz de extraer y analizar varios datos valiosos, indistintamente, si proviene de redes sociales, puntos de venta, páginas web o registros de clientes.
Esa visión mucho más completa que la analítica ofrece a las empresas, es precisamente lo que les permite tomar decisiones informadas con gran agilidad, así como reducir sus costos y aumentar su eficiencia y productividad. Además, herramientas de apoyo y explotación como los tableros de control (scorecards), y aplicaciones móviles bastante fáciles de usar, proporcionan información concisa, detallada y ordenada en cualquier momento y lugar.
Se acabaron los pretextos, usted puede (debería) ayudar a sus clientes a beneficiarse de la analítica empresarial, ya sea que contrate expertos en la materia o que usted mismo se encargue de su diseño e implementación, con adquisiciones directas o bien en renta, porque hoy todo esto es posible. Lo más interesante es que en dicha dinámica, usted descubrirá el detalle de muchos procesos de su negocio que muy probablemente desconocía. Cada empresa es especial y única, sin embargo, todas tienen 3 objetivos fundamentales: reducción de costos o generación de ahorros, incrementar sus ingresos por ventas, y/o cumplir con la regulación correspondiente. Todos estos objetivos se pueden alinear y cumplir con la analítica avanzada.

¿Qué es lo más recomendable?

Es crucial y crítico asesorarse con expertos. No en compañías neófitas que se sumaron a la “ola de moda”, y desarrollaron tecnologías súbitamente de la nada, ni en aquellas que tienen por costumbre la adquisición estratégica de compañías para agregar “platillos” que antes no ofrecían en su “menú”. Busque, investigue, revise los estudios e investigaciones de las compañías dedicadas a la analítica avanzada, evalúe proveedores no solo de tecnología, sino aquellos que también sean expertos en su implementación. Cruce dicha información con referencias directas de clientes actuales de tales compañías y entonces, juzgue con criterio propio quienes son los jugadores más serios en el mercado, con referencias confiables, de solvente reputación y, sobre todo, cuya esencia haya sido desde sus orígenes la gestión de datos y el análisis de información para toma de decisiones. Lo demás solo son intentos riesgosos.   Crédito foto: iStockphoto