Showing posts from tagged with: Big Data

Caso de estudio: Teradata y la detección del fraude financiero con AI

Escrito por Chrysalis en Blog, Casos de estudio, High Tech, Negocios, Tech | 0 Comentarios

23.10.17

La compañía estadounidense Teradata anunció que Danske Bank, destacado prestador de servicios financieros en los países nórdicos, ha trabajado con Think Big Analytics, una compañía de Teradata, para crear y lanzar una plataforma de detección de fraudes de vanguardia controlada por Inteligencia Artificial (AI, por sus siglas en inglés) y de la cual se espera que alcance 100% de ROI en el primer año de su implementación. El motor utiliza aprendizaje automático para analizar decenas de miles de características latentes, clasificando en tiempo real millones de transacciones bancarias realizadas en línea para brindar información útil sobre actividades fraudulentas reales y falsas. Al reducir significativamente el costo de investigar los falsos positivos, Danske Bank aumentó la eficiencia general y ahora puede obtener importantes ahorros. “El fraude en las solicitudes es un problema grave y prioritario para los bancos. Hay evidencia de que los delincuentes se están volviendo expertos y emplean técnicas sofisticadas de aprendizaje automático para atacar, por lo que es fundamental utilizar técnicas de avanzada, como el aprendizaje automático, para atraparlos”, afirmó Nadeem Gulzar, director de Analíticas Avanzadas de Danske Bank.

“El banco entiende que el fraude va a empeorar a mediano y largo plazo, debido a la digitalización de las operaciones bancarias y la prevalencia de las aplicaciones de banca móvil. Reconocemos la necesidad de utilizar las técnicas más avanzadas para enfrentar a los estafadores, no donde se encuentran hoy, sino donde van a estar mañana. Gracias a la IA, ya redujimos en un 50% los falsos positivos y, por ello, pudimos reasignar la mitad de los recursos de la unidad de detección de fraudes para que se ocuparan de cuestiones de mayor responsabilidad”, dice Gulzar.
Los profesionales de Think Big Analytics de Teradata comenzaron a trabajar con Danske Bank en el otoño de 2016, para perfeccionar su equipo de analíticas avanzadas con conocimientos especializados sobre cómo utilizar los datos para generar mayores beneficios para todo el negocio. Desde el punto de vista del modelado, los casos de fraude aún son raros: alrededor de un caso en cada 100.000. El equipo logró tomar los falsos positivos de los modelos y los redujo en un 50%. Al mismo tiempo, pueden encontrar más fraudes, con lo que la tasa de detección aumentó en casi 60%. El programa antifraude de Danske Bank es el primero en introducir técnicas de aprendizaje automático en la producción, al tiempo que desarrollan modelos de aprendizaje profundo para poner a prueba los modelos. “Todos los bancos necesitan una plataforma analítica avanzada y escalable, así como un plan estratégico de digitalización para incorporar la ciencia de datos en la organización”, explicó Mads Ingwar, director de Servicios al Cliente de Think Big Analytics.
“Para las transacciones en línea, pagos móviles y tarjetas de crédito, los bancos necesitan una solución en tiempo real: la plataforma de detección de fraudes de vanguardia impulsada por IA que hemos desarrollado en colaboración con Danske Bank clasifica las transacciones entrantes en menos de 300 milisegundos. Esto significa que cuando los clientes van al supermercado a comprar comestibles, el sistema puede clasificar la transacción en tiempo real y proporcionar información útil sin demora. Comenzaremos a ver este tipo de solución en todas las organizaciones del sector de servicios financieros”, finaliza Ingwar.
  Crédito imagen principal

Teradata: se acabaron los pretextos, llegó el momento de aplicar analítica en todo negocio

Escrito por Pablo Albarracín en Apps & Software, Blog, Casos de estudio, High Tech, Negocios | 0 Comentarios

22.08.17

Artículo escrito por Antonio Gómez, Account Manager, Banking & Financial Services, Teradata México. Actualmente, la analítica en los negocios es bastante común y ampliamente adoptada en diferentes sectores e industrias, en organizaciones de diversos tamaños y en distintas regiones geográficas. La consultora global IDC proyecta que el mercado de la analítica crecerá alrededor de 10% en los próximos meses. ¿El motivo?: existe suficiente evidencia de que la toma de decisiones basada en analítica de datos propicia una contundente diferencia competitiva. Un factor clave para esa proyección es que las soluciones analíticas hoy en día son bastante asequibles para empresas de todos los tamaños y de muy alta calidad al estar disponibles a través de la nube, reduciendo drásticamente los tiempos de implementación. Esto se traduce en una amplia gama de oportunidades para los proveedores de soluciones a fin de proponer o mejorar las iniciativas analíticas con sus clientes, generando mayor credibilidad y convirtiéndose inevitablemente en asesores estratégicos para su negocio.

El impacto de los medios sociales

En la actualidad, incluso las empresas más pequeñas dependen de Twitter, Facebook y de la publicidad en LinkedIn o Google para encontrar nuevos clientes y mejorar su marca. ¿Pero de verdad entienden cuál es el impacto en su negocio y lo que deberían hacer para sacarles mayor provecho? Un motor analítico serio es capaz de extraer y analizar varios datos valiosos, indistintamente, si proviene de redes sociales, puntos de venta, páginas web o registros de clientes.
Esa visión mucho más completa que la analítica ofrece a las empresas, es precisamente lo que les permite tomar decisiones informadas con gran agilidad, así como reducir sus costos y aumentar su eficiencia y productividad. Además, herramientas de apoyo y explotación como los tableros de control (scorecards), y aplicaciones móviles bastante fáciles de usar, proporcionan información concisa, detallada y ordenada en cualquier momento y lugar.
Se acabaron los pretextos, usted puede (debería) ayudar a sus clientes a beneficiarse de la analítica empresarial, ya sea que contrate expertos en la materia o que usted mismo se encargue de su diseño e implementación, con adquisiciones directas o bien en renta, porque hoy todo esto es posible. Lo más interesante es que en dicha dinámica, usted descubrirá el detalle de muchos procesos de su negocio que muy probablemente desconocía. Cada empresa es especial y única, sin embargo, todas tienen 3 objetivos fundamentales: reducción de costos o generación de ahorros, incrementar sus ingresos por ventas, y/o cumplir con la regulación correspondiente. Todos estos objetivos se pueden alinear y cumplir con la analítica avanzada.

¿Qué es lo más recomendable?

Es crucial y crítico asesorarse con expertos. No en compañías neófitas que se sumaron a la “ola de moda”, y desarrollaron tecnologías súbitamente de la nada, ni en aquellas que tienen por costumbre la adquisición estratégica de compañías para agregar “platillos” que antes no ofrecían en su “menú”. Busque, investigue, revise los estudios e investigaciones de las compañías dedicadas a la analítica avanzada, evalúe proveedores no solo de tecnología, sino aquellos que también sean expertos en su implementación. Cruce dicha información con referencias directas de clientes actuales de tales compañías y entonces, juzgue con criterio propio quienes son los jugadores más serios en el mercado, con referencias confiables, de solvente reputación y, sobre todo, cuya esencia haya sido desde sus orígenes la gestión de datos y el análisis de información para toma de decisiones. Lo demás solo son intentos riesgosos.   Crédito foto: iStockphoto

PUCV y Level 3 Communications firman acuerdo de colaboración para impulsar la innovación, I+D e incubación de nuevos negocios

Escrito por Pablo Albarracín en Noticia | 0 Comentarios

22.06.17

La alianza potenciará la Transformación Digital de nuevas empresas y emprendimientos chilenos, incubados desde Valparaíso.

La compañía estadounidense proveedora de servicios de Telecomunicaciones y Tecnologías empresariales a nivel global, Level 3 Communications, y la Pontificia Universidad Católica de Valparaíso, a través de su centro de innovación, Hub Global, han firmado este jueves 22 de junio un acuerdo de colaboración que les permitirá a ambas organizaciones avanzar en la creación de variadas instancias de innovación y desafíos tecnológicos.

Jacqueline Díaz, Gerente de Marketing de Level 3

Por medio de esta alianza estratégica, Level 3 está proporcionando al Hub Global PUCV acceso a Internet de Alta Velocidad, lo que convierte al centro de innovación regional en uno de los que cuenta con mejor conectividad del país. Al estar conectado a la red de fibra óptica de Level 3, el Hub, sus emprendimientos y empresas incubadas, cuentan con tecnologías de telecomunicaciones de clase mundial, capaces de responder en el presente y el futuro a la alta demanda de banda ancha que requieren sus diversas actividades emprendedoras.

De izq. a der / Pedro Huichalaf, ex-sub-secretario de Telecomunicaciones; David Iacobucci de Level 3, rector Claudio Elórtegi, Joel Saavedra, Vicerrector de Investigación y Estudios Avanzados; y Walter Rosenthal, Director de la DIN-PUCV.

El centro de innovación de la PUCV opera y proyecta, desde Valparaíso al mundo, un espacio colaborativo de trabajo que entrega una alta especialización y tareas de excelencia, que han permitido la creación de empresas tecnológicas dinámicas de alto impacto (startups), por medio de procesos de innovación abierta y desafíos de innovación. El Hub centra su actividad en las verticales que dominan la Economía Digital de hoy, como son las tecnologías IoT, Big Data, software y aplicaciones, biotecnología y telecomunicaciones.

Un ameno recorrido por las instalciones del Hub Global se vivió junto al rector.

"Como Pontificia Universidad Católica de Valparaíso, sabemos que solo la incorporación de ciencia, tecnología, innovación y emprendimiento al aparato productivo nacional nos llevará al tan anhelado desarrollo, dice el rector Claudio Elórtegui. "Por ello, esta alianza con Level 3 nos pone en condiciones de poder visualizar y materializar proyectos con tecnologías de primer nivel en nuestro centro de innovación Hub Global, que potencien la labor que venimos realizando".

Rector Elórtegui y David Iacobucci, luego de firmar el convenio.

La alianza también abre nuevas posibilidades de colaboración entre la universidad y Level 3 en tecnologías como servicios de productividad empresarial, computación en la nube, comunicaciones unificadas, entre otros.
“Level 3 ha colaborado sostenidamente con centros de innovación y universidades en todo el mundo, y Chile no es la excepción. La visión es potenciar la economía digital, Investigación y Desarrollo, para incrementar la competitividad a nivel país, en medio de un escenario globalizado, en que la conectividad y tecnologías de valor agregado son un pilar estratégico para la Transformación Digital de las organizaciones productivas, en beneficio de la sociedad y las personas”, destaca David Iacobucci, director de ventas de Level 3 en Chile.

David Iacobucci, Sales Director de Level 3 en Chile.

El acceso dedicado a Internet de Level 3 provee alcance y escalabilidad global sobre su red diversificada, con conectividad en más de 60 países y 500 mercados globales. La capacidad de backbone IP global de Level 3 es superior a los 42 terabits por segundo (Tbps). Adicionalmente, su red posee más de 330.000 kms de fibra óptica, con amplias soluciones de acceso off-net en Norteamérica, Europa, América Latina y Asia Pacífico.

Carlos Calderon, Gerente de I+D de Biotecnos, explica el trabajo que se realiza en las instalaciones de Hub Global dedicadas a la biotecnología.

El Hub además articula un nodo nacional y global de conexión para creación colaborativa en red de empresas de alto impacto, que integre a emprendedores, comunidad universitaria, empresas y gobierno. En este aspecto, la alianza con compañías tecnológicas de clase mundial como Level 3 es clave.

Parte de las instalaciones de los laboratorios de biotecnología.

Con esta alianza, inédita en la región, la PUCV invita a Level 3 a conformar el staff de “embajadores de innovación” al interior del Hub Global. Esto permitirá a Level 3 elrelacionamiento con la cartera de startups incubadas, sus partners en el extranjero, socios de negocios, la red de mentores PUCV, su red de inversionistas y con todo el ecosistema de innovación y emprendimiento de Latinoamérica.   Con la colaboración de Go Comunicaciones

Machine Learning: ¿somos conscientes del uso de nuestra huella digital?

Escrito por Cesar Munoz Rosales en Apps & Software, Blog, Hardware, Diseño & Makerspace, High Tech, Tech | 0 Comentarios

08.05.17

“Ninguna tecnología es tecnológicamente determinista, siempre es socialmente construida”, dice Martín Hilbert, Doctor en Ciencias Sociales y asesor tecnológico de la Biblioteca del Congreso de EEUU. Aunque el concepto de aprendizaje de las máquinas (machine learning) nos puede llevar tan lejos, como una obra de ciencia ficción, muchas de sus aplicaciones forman parte de nuestra vida diaria. Esta tecnología, ya está presente  en áreas tan disímiles como la biotecnología, la genómica, el transporte, el marketing e incluso la política. Sus aplicaciones ya son un hecho. El análisis de grandes volúmenes de datos (Big Data) y el vínculo con la computación de alto rendimiento (HPC, por sus siglas en inglés), ha ido adquiriendo notoriedad, aunque no sin encontrar visiones contrapuestas. El machine learning se refiere a la capacidad de una máquina de funcionar en base a un aprendizaje automatizado. Es un tipo de “inteligencia artificial” que funciona por inducción de conocimiento, donde el objetivo principal es posibilitar que computadores asimilen datos, entreguen respuestas y tomen decisiones por sí mismas. El término se viene utilizando desde los años 50, cuando el famoso Alan Turing creó el Test Turing, donde ponía a prueba la capacidad de una máquina para actuar como humano, cobrando particular relevancia en la última década por el procesamiento de mayores volúmenes de información a través del creciente big data. El aprendizaje automatizado es una parte fundamental en el aprovechamiento del big data. Pensemos que se estima que solamente Facebook genera cerca de 500 terabytes de datos por día, cuestión que crece exponencialmente, por ejemplo, con el auge del Internet de las cosas (IoT, por sus siglás en inglés). Cuando se cuenta con dichos volúmenes de información, es necesario recurrir a tecnologías que puedan lidiar con esta densidad.

Los algoritmos destinados al aprendizaje automatizado pueden generarse de varias formas, donde los más comunes son los supervisados (transaccionales generalmente) y los no supervisados. En el primer caso, se tienen órdenes que ayudan a asimilar los datos en el momento de su análisis; un ejemplo sería el sistema de detección de spam de Google, donde se utilizan datos referidos a las categorizaciones de los usuarios (mensajes spam o legítimos). En el segundo caso, el aprendizaje no es supervisado, vale decir, no se cuenta con una experiencia previa para analizar datos, de modo que se emplea principalmente para buscar patrones (frecuentemente en el análisis de datos científicos o para segmentar públicos).

El cielo es el límite

machine_learning Las alcances de la automatización de procesos con machine learning son variadas y sofistican las nuevas tecnologías a pasos agigantados, permitiendo optimizar recursos y sustituyendo tareas manuales ahora realizadas por máquinas o robots. Por ejemplo. Hoy en día, el aprendizaje de máquinas puede ser utilizado para evaluar la tasa de éxito de intervenciones quirúrgicas según estadísticas de pacientes; segmentación de públicos para efectividad de mensajes (de las Telcos por ejemplo); predicciones climáticas; control de tráfico por afluencia de vehículos; mercado de valores; eficiencia en transporte; etcétera. Esta tecnología es parte cada vez más importante en la toma de decisiones. Sin embargo, la idea del manejo de grandes volúmenes de datos trae a colación temas como la vigilancia cibernética y el potencial uso que pudiese tener nuestra huella digital (rastro que queda en nuestra actividad por internet). Tal como lo advirtió recientemente Martin Hilbert, Doctor en Ciencias Sociales y asesor tecnológico de la Biblioteca del Congreso de EEUU, se vuelve preocupante cómo se está interpretando la idea de 'privacidad'.
“Vivimos en un mundo donde los políticos pueden usar la tecnología para cambiar cerebros, los operadores de telefonía móvil predecir a dónde iremos y los algoritmos de redes sociales descifrar nuestra personalidad”, dijo Hilbert  en entrevista a la BBC, refiriéndose a la importancia de reinventar la democracia representativa para evitar una “dictadura de la información”.
La idea del machine learning es un punto de partida, pues evidentemente la epistemología admite múltiples enfoques y acepciones. Para “aprender”, hacen falta inteligencias y en los humanos, por ejemplo, encontramos sistemas heterogéneos y abiertos, con dinámicas complejas y en muchos casos aún por explorar. El mismo Turing abordó en Computing Machinery and Intelligence, los problemas para definir los alcances de cuestiones como el “pensamiento”, al momento de construir una máquina “pensante”. Incluso podríamos ir más allá y adentrarnos en clásicos del cyberpunk, si quisiéramos imaginar un futuro tecnológico distópico. Lo que sí es un hecho, es la relevancia que cobra entender los alcances de nuestro rastro por el ciberespacio y el uso de los grandes volúmenes de datos.