Showing posts from tagged with: data science

Machine Learning: ¿somos conscientes del uso de nuestra huella digital?

Escrito por Cesar Munoz Rosales en Apps & Software, Blog, Hardware, Diseño & Makerspace, High Tech, Tech | 0 Comentarios

08.05.17

“Ninguna tecnología es tecnológicamente determinista, siempre es socialmente construida”, dice Martín Hilbert, Doctor en Ciencias Sociales y asesor tecnológico de la Biblioteca del Congreso de EEUU. Aunque el concepto de aprendizaje de las máquinas (machine learning) nos puede llevar tan lejos, como una obra de ciencia ficción, muchas de sus aplicaciones forman parte de nuestra vida diaria. Esta tecnología, ya está presente  en áreas tan disímiles como la biotecnología, la genómica, el transporte, el marketing e incluso la política. Sus aplicaciones ya son un hecho. El análisis de grandes volúmenes de datos (Big Data) y el vínculo con la computación de alto rendimiento (HPC, por sus siglas en inglés), ha ido adquiriendo notoriedad, aunque no sin encontrar visiones contrapuestas. El machine learning se refiere a la capacidad de una máquina de funcionar en base a un aprendizaje automatizado. Es un tipo de “inteligencia artificial” que funciona por inducción de conocimiento, donde el objetivo principal es posibilitar que computadores asimilen datos, entreguen respuestas y tomen decisiones por sí mismas. El término se viene utilizando desde los años 50, cuando el famoso Alan Turing creó el Test Turing, donde ponía a prueba la capacidad de una máquina para actuar como humano, cobrando particular relevancia en la última década por el procesamiento de mayores volúmenes de información a través del creciente big data. El aprendizaje automatizado es una parte fundamental en el aprovechamiento del big data. Pensemos que se estima que solamente Facebook genera cerca de 500 terabytes de datos por día, cuestión que crece exponencialmente, por ejemplo, con el auge del Internet de las cosas (IoT, por sus siglás en inglés). Cuando se cuenta con dichos volúmenes de información, es necesario recurrir a tecnologías que puedan lidiar con esta densidad.

Los algoritmos destinados al aprendizaje automatizado pueden generarse de varias formas, donde los más comunes son los supervisados (transaccionales generalmente) y los no supervisados. En el primer caso, se tienen órdenes que ayudan a asimilar los datos en el momento de su análisis; un ejemplo sería el sistema de detección de spam de Google, donde se utilizan datos referidos a las categorizaciones de los usuarios (mensajes spam o legítimos). En el segundo caso, el aprendizaje no es supervisado, vale decir, no se cuenta con una experiencia previa para analizar datos, de modo que se emplea principalmente para buscar patrones (frecuentemente en el análisis de datos científicos o para segmentar públicos).

El cielo es el límite

machine_learning Las alcances de la automatización de procesos con machine learning son variadas y sofistican las nuevas tecnologías a pasos agigantados, permitiendo optimizar recursos y sustituyendo tareas manuales ahora realizadas por máquinas o robots. Por ejemplo. Hoy en día, el aprendizaje de máquinas puede ser utilizado para evaluar la tasa de éxito de intervenciones quirúrgicas según estadísticas de pacientes; segmentación de públicos para efectividad de mensajes (de las Telcos por ejemplo); predicciones climáticas; control de tráfico por afluencia de vehículos; mercado de valores; eficiencia en transporte; etcétera. Esta tecnología es parte cada vez más importante en la toma de decisiones. Sin embargo, la idea del manejo de grandes volúmenes de datos trae a colación temas como la vigilancia cibernética y el potencial uso que pudiese tener nuestra huella digital (rastro que queda en nuestra actividad por internet). Tal como lo advirtió recientemente Martin Hilbert, Doctor en Ciencias Sociales y asesor tecnológico de la Biblioteca del Congreso de EEUU, se vuelve preocupante cómo se está interpretando la idea de 'privacidad'.
“Vivimos en un mundo donde los políticos pueden usar la tecnología para cambiar cerebros, los operadores de telefonía móvil predecir a dónde iremos y los algoritmos de redes sociales descifrar nuestra personalidad”, dijo Hilbert  en entrevista a la BBC, refiriéndose a la importancia de reinventar la democracia representativa para evitar una “dictadura de la información”.
La idea del machine learning es un punto de partida, pues evidentemente la epistemología admite múltiples enfoques y acepciones. Para “aprender”, hacen falta inteligencias y en los humanos, por ejemplo, encontramos sistemas heterogéneos y abiertos, con dinámicas complejas y en muchos casos aún por explorar. El mismo Turing abordó en Computing Machinery and Intelligence, los problemas para definir los alcances de cuestiones como el “pensamiento”, al momento de construir una máquina “pensante”. Incluso podríamos ir más allá y adentrarnos en clásicos del cyberpunk, si quisiéramos imaginar un futuro tecnológico distópico. Lo que sí es un hecho, es la relevancia que cobra entender los alcances de nuestro rastro por el ciberespacio y el uso de los grandes volúmenes de datos.

La ‘responsabilidad algorítmica’: ¿por qué rechazaron mi crédito?

Escrito por Pablo Albarracín en Apps & Software, Blog, High Tech | 0 Comentarios

03.04.17

La abundancia y acceso a software cada vez más inteligente (aunque no creo que exista o algún día hubiera existido un software no inteligente) abre miles de puertas a  nuevos negocios en múltiples industrias. Esta realidad, de la que ya se han referido varios pensadores y referentes tecnológicos como Ray Kurzweil, está dejando al ser humano al margen en la toma de algunas decisiones que están siendo 'responsabilidad' de avanzados software quienes entregan predicciones y respuestas muy confiables, tanto, que en muchos casos no es necesaria la supervisión humana. Es por esto que hoy en día vemos a grandes empresas y startups usar tecnología en importantes decisiones, como diagnóstico médico, prevención del crimen y aprobaciones de préstamos bancarios. La aplicación de inteligencia a los datos en estos áreas, lleva a preguntarnos sobre si resulta necesaria una revisión humana a los resultados de un algoritmo. ¿Se lo dejamos todo a los 0 y 1?

La 'responsabilidad algorítmica'

Este nuevo dilema está llevando a la generación de varios estudios académicos. La situación es conocida como 'responsabilidad algorítmica', y está captando el interés de variadas organizaciones de derechos civiles que están analizando las implicaciones que tiene la ciencia de los datos en estas materias. “El Big Data puede y debería causar mejor seguridad, más oportunidades económicas y mejor convivencia”, dice Wade Henderson, presidente de la Conferencia en Derechos Civiles y Humanos. Lo que está en juego aquí es, hasta dónde llegarán los datos en la búsqueda de esa soñada productividad e inteligencia en todos los procesos.
Por ejemplo, en la banca y específicamente en el sector de créditos y préstamos, el 'conocer al cliente', se está tornando algo extremo, gracias a dichos software mega sabios: saben todo de todos.
Imagina que vas a pedir un préstamos a un banco X: ellos extraen información de diversas fuentes, como datos y conexiones desde redes sociales, cómo completas un formulario en línea, dónde a qué hora y qué comiste cuando fuiste al cine, dónde te gusta vacacionar y cuanto gastaste, hasta si piensas hacerte una cirugía estética. Los ejecutivos dicen que conocen a los solicitantes como nunca antes, lo que les permite predecir con mayor precisión si el postulante es confiable o no (independiente de la información dura transaccional que ya posee el banco). Su préstamo fue rechazado y usted no sabe por qué!, usted tiene una buena salud financiera, pero los algoritmos encontraron 'algo' suyo que 'no les agradó'. Fin de la historia.
Esto es posible gracias a los algoritmos que buscan a través de montañas de datos, aprendiendo a medida que escudriñan hasta el fondo. Es un sistema altamente complejo y automatizado. Y no menos polémico.
La preocupación es similar en otros campos, la salud es uno de ellos. Sin embargo, aún las tecnologías no han logrado ser lo suficientemente eficaces como para ayudar realmente a los médicos en la práctica diaria. Expertos de IBM, en colaboración con investigadores médicos de prestigiosas instituciones como la Clínica Cleveland, la Clínica Mayo y el Memorial Sloan Kettering Cancer Center, están avanzando mucho, sobre todo con Watson, que puede leer miles de datos médicos electrónicos ( EMR, por sus siglas en inglés) a un ritmo incomprensible para los seres humanos: muchos miles por segundo, buscando pistas, correlaciones e ideas. Lo que ayuda a mejorar diagnósticos, curas...vidas.

Construye tu ‘Dream Team’ en Data Science

Escrito por Julio Serrano en Blog, Ecosistema, Innovación, Startups | 0 Comentarios

27.03.17

infografia-datascience-01

¿Cómo funciona una arquitectura híbrida de datos?

Escrito por Julio Serrano en Blog, Casos de estudio, Inversión y Finanzas, Negocios | 0 Comentarios

22.03.17

En la actualidad nos encontramos inmersos en un dilema frente al Big Data y sus capacidades, dilema que no hace más que aumentar a medida que la tecnología avanza. Se ha vuelto imperioso contar con más silos de datos, mientras los usuarios exigen más aplicaciones y nuevas soluciones. IBM, a través de diversos estudios y encuestas a profesionales TI y compañías inmersas en en el área, indican que aprender una arquitectura híbrida para el tratamiento de grandes volúmenes de información, puede ayudar a responder a estas demandas.

infog