08.05.17

Machine Learning: ¿somos conscientes del uso de nuestra huella digital?

Escrito por Cesar Munoz Rosales en Apps & Software, Blog, Hardware, Diseño & Makerspace, High Tech, Tech | 0 Comentarios

Tweet about this on TwitterShare on Facebook0Share on Google+0Email this to someoneShare on LinkedIn6Pin on Pinterest0

“Ninguna tecnología es tecnológicamente determinista, siempre es socialmente construida”, dice Martín Hilbert, Doctor en Ciencias Sociales y asesor tecnológico de la Biblioteca del Congreso de EEUU.

Aunque el concepto de aprendizaje de las máquinas (machine learning) nos puede llevar tan lejos, como una obra de ciencia ficción, muchas de sus aplicaciones forman parte de nuestra vida diaria. Esta tecnología, ya está presente  en áreas tan disímiles como la biotecnología, la genómica, el transporte, el marketing e incluso la política. Sus aplicaciones ya son un hecho. El análisis de grandes volúmenes de datos (Big Data) y el vínculo con la computación de alto rendimiento (HPC, por sus siglas en inglés), ha ido adquiriendo notoriedad, aunque no sin encontrar visiones contrapuestas.

El machine learning se refiere a la capacidad de una máquina de funcionar en base a un aprendizaje automatizado. Es un tipo de “inteligencia artificial” que funciona por inducción de conocimiento, donde el objetivo principal es posibilitar que computadores asimilen datos, entreguen respuestas y tomen decisiones por sí mismas. El término se viene utilizando desde los años 50, cuando el famoso Alan Turing creó el Test Turing, donde ponía a prueba la capacidad de una máquina para actuar como humano, cobrando particular relevancia en la última década por el procesamiento de mayores volúmenes de información a través del creciente big data.

El aprendizaje automatizado es una parte fundamental en el aprovechamiento del big data. Pensemos que se estima
que solamente Facebook genera cerca de 500 terabytes de datos por día, cuestión que crece exponencialmente, por ejemplo, con el auge del Internet de las cosas (IoT, por sus siglás en inglés). Cuando se cuenta con dichos volúmenes de información, es necesario recurrir a tecnologías que puedan lidiar con esta densidad.

Los algoritmos destinados al aprendizaje automatizado pueden generarse de varias formas, donde los más comunes son los supervisados (transaccionales generalmente) y los no supervisados. En el primer caso, se tienen órdenes que ayudan a asimilar los datos en el momento de su análisis; un ejemplo sería el sistema de detección de spam de Google, donde se utilizan datos referidos a las categorizaciones de los usuarios (mensajes spam o legítimos). En el segundo caso, el aprendizaje no es supervisado, vale decir, no se cuenta con una experiencia previa para analizar datos, de modo que se emplea principalmente para buscar patrones (frecuentemente en el análisis de datos científicos o para segmentar públicos).

El cielo es el límite

machine_learning

Las alcances de la automatización de procesos con machine learning son variadas y sofistican las nuevas tecnologías a pasos agigantados, permitiendo optimizar recursos y sustituyendo tareas manuales ahora realizadas por máquinas o robots.

Por ejemplo. Hoy en día, el aprendizaje de máquinas puede ser utilizado para evaluar la tasa de éxito de intervenciones quirúrgicas según estadísticas de pacientes; segmentación de públicos para efectividad de mensajes (de las Telcos por ejemplo); predicciones climáticas; control de tráfico por afluencia de vehículos; mercado de valores; eficiencia en transporte; etcétera. Esta tecnología es parte cada vez más importante en la toma de decisiones.

Sin embargo, la idea del manejo de grandes volúmenes de datos trae a colación temas como la vigilancia cibernética y el potencial uso que pudiese tener nuestra huella digital (rastro que queda en nuestra actividad por internet). Tal como lo advirtió recientemente Martin Hilbert, Doctor en Ciencias Sociales y asesor tecnológico de la Biblioteca del Congreso de EEUU, se vuelve preocupante cómo se está interpretando la idea de ‘privacidad’.

“Vivimos en un mundo donde los políticos pueden usar la tecnología para cambiar cerebros, los operadores de telefonía móvil predecir a dónde iremos y los algoritmos de redes sociales descifrar nuestra personalidad”, dijo Hilbert  en entrevista a la BBC, refiriéndose a la importancia de reinventar la democracia representativa para evitar una “dictadura de la información”.

La idea del machine learning es un punto de partida, pues evidentemente la epistemología admite múltiples enfoques y acepciones. Para “aprender”, hacen falta inteligencias y en los humanos, por ejemplo, encontramos sistemas heterogéneos y abiertos, con dinámicas complejas y en muchos casos aún por explorar. El mismo Turing abordó en Computing Machinery and Intelligence, los problemas para definir los alcances de cuestiones como el “pensamiento”, al momento de construir una máquina “pensante”. Incluso podríamos ir más allá y adentrarnos en clásicos del cyberpunk, si quisiéramos imaginar un futuro tecnológico distópico.

Lo que sí es un hecho, es la relevancia que cobra entender los alcances de nuestro rastro por el ciberespacio
y el uso de los grandes volúmenes de datos.

Tweet about this on TwitterShare on Facebook0Share on Google+0Email this to someoneShare on LinkedIn6Pin on Pinterest0
Tags: , , , , , , ,

Otras Publicaciones