01.12.15

Inteligencia Artificial: ¿son suficientes las 3 leyes de la robótica?

Escrito por Pablo Albarracín en Blog, High Tech, Noticia, Tech | 0 Comentarios

Tweet about this on TwitterShare on Facebook0Share on Google+0Email this to someoneShare on LinkedIn6Pin on Pinterest0

Fue el mismísimo Stephen Hawking quien se encargó de alertar a la humanidad sobre el avance de la inteligencia artificial (AI, por sus siglas en inglés) y sus posibles implicancias negativas para el futuro. “El desarrollo de la inteligencia artificial podría significar el fin de la raza humana”, decía el científico a la BBC en una entrevista a fines del 2014. “Los humanos, que están limitados por la evolución biológica, no podrían competir y quedarían suprimidos (por los robots)”, afirmó Hawking. La preocupación del premio nobel no es antojadiza ni tampoco una cruzada solitaria, ya que la preocupación es compartida por más de 100 destacados científicos y tecnólogos quienes firmaron una carta abierta, llamando a la reflexión sobre la AI y sus posibles intervenciones negativas. Entre estos, destacan Elon Musk y Bill Gates.

Los riesgos asociados a la AI van desde la privacidad en la web, la seguridad nacional, hasta la pérdida de millones de empleos a manos de los nuevos empleados robóticos. Más allá de los problemas que toda nueva tecnología supone al statu quo imperante, los enormes avances que está experimentando este campo de la informática son de una velocidad asombrosa y están más cerca de lo que pensamos. Siri, Google Now, Cortana o los grandes avances en el software de Facebook son pruebas palpables de aquello. No es necesario tener un Kirobo en casa, o un Hal 9000 monitoreando nuestro trabajo, para sentir que la AI ya está entre nosotros. El reconocimiento de voz e imágenes está disparando la innovación en AI a pasos agigantados!

robot shakes hands with human

Para muestras un botón: Facebook lanzó en la zona de San Francisco un asistente personal llamado ‘M’, una especie de Siri o Cortana, pero que trabaja sobre Meseenger, el cual identifica y responde, a través de varios millones de piezas de datos, complicadas preguntas, como por ejemplo, encontrar fotos de X persona vistiendo de azul en la fiesta de cumpleaños de un amigo, u otras más complejas, como buscar aquellas fotos donde parezco más feliz  ‘de lo habitual’ el año pasado. Esto ya está viendo la luz en la red social de Zuckerberg, gracias a técnicas de Memory Networks.

Y los equipos de AI en las compañías líderes no paran de crecer. Hoy en día, los laboratorios de las corporaciones son tanto o más sofisticados que sus pares en la academia, donde el nivel del RRHH y de la inversión es altísimo, lo que está atrayendo a algunos de los investigadores más notables del mundo a los laboratorios de investigación las empresas. El científico de datos asoma como el profesional más demandado por estos centros.

LeCun, ex director del  Center for Data Science de la Universidad de Nueva York, se unió a Facebook en diciembre de 2013 para ejecutar su grupo de AI, ha contratado a más de 50 investigadores y abrió un laboratorio de IA en París. El laboratorio de AI en Silicon Valley de la china Baidu, inaugurado en mayo de 2014, ya cuenta con alrededor de 25 investigadores dirigidos por Andrew Ng, un ex jefe de AI en Google. El gigante de las búsquedas chino emplea a cerca de 200 especialistas de AI a nivel mundial.

¿Y las inversiones en AI? Crecen como la espuma. Los capitalistas de riesgo invirtieron US$309.2MM en nuevas startups de AI el año pasado (veinte veces más desde 2010). Algunas de estas nuevas empresas son MetaMind, Clarifai, Sentient Technologies, The Grid, Enlitic, X.ai, entre las más mencionadas.

startups_ai

Más allá de Asimov

“La dificultad está en cómo hacerlo sin sacrificar la libertad y la privacidad”, decía Hawking para la BBC.

Algunos incluso van más allá de las observaciones del destacado físico, apuntando al desarrollo de una ‘conciencia del robot’ y a las leyes que, se supone, rigen su existencia. Estas leyes van de la ano de cierta ‘moral del robot’. Las 3 leyes de la robótica fueron creadas en 1942 por el destacado científico y escritor de ciencia ficción, Issac Asimov, que obligan a las máquinas inteligentes a 1) no hacer daño a las personas, 2) obedecer a las personas salvo que eso viole la primera ley, y 3) protegerse a sí mismas salvo que eso viole las dos primeras leyes. ¡Eureka!

El problema es que estas leyes pareciera que están quedando obsoletas, o, por lo menos, requieren una renovación. Vamos al campo de los drones, que están muy de moda. Estos dispositivos tienen un origen militar y difieren mucho en sus pares civiles. Los drones militares son operados a miles de kilómetros de distancia, son de varios metros y toneladas, incluyen sendos sistemas autónomos y, lo más trascendente, deciden la vida o muerte de personas.  En el caso de los drones Predator, Reaper o Global Hawk, que realizan hace años misiones en Asia,  ya violan la primera y segunda ley, porque fueron creados para hacer daño a otras personas.

O un automóvil que se maneja solo, tecnología muy demandada en la actualidad por decenas de fabricantes y compañías de tecnología,  que se enfrenta a un peatón que salta a la calle, quizá decida atropellar al peatón para evitar un choque con el auto que va al lado con un niño a bordo…y si se cruzan dos personas a la vez en calle, ¿a quién decide no atropellar? (“si freno bruscamente provocaré un choque en cadena, que a esta velocidad puede ser fatal para 3 a 5 personas”, piensa el auto-robot).

inteligencia_artificial_3

Estos nuevos problemas derivados de la irrupción de la AI deben solucionarse desde una mirada multidisciplinaria, donde las relaciones hombre-máquina sean el centro de atención y estudio y donde la interacción entre humanos y robots, cómo será convivir en sociedad con estos nuevos ‘individuos’. Desarrollar interfaces y protocolos de relación es tan importante como el desarrollo de la tecnología.

“Se trata de pasar de la interacción hombre-máquina a las relaciones hombre-máquina”, dice la antropóloga Genevieve Bell, directora de Investigación de Interacción y Experiencia de Intel Labs. Bell ha llegado incluso a la elaboración de 4 reglas para la tecnología ideal: 1) la gente quiere que la tecnología sea verdaderamente personal, que los entienda; 2) la tecnología no debe incomodarnos físicamente; 3) la tecnología no debe ser un ‘adormecedor’ de la realidad ni un distractor y, finalmente, 4) debe ayudarnos a sacar lo mejor de nosotros mismos, al extender lo que podemos hacer.

Todo parece indicar que el exponencial desarrollo de la AI llevará a una revisión y mejora de las tres leyes de Asimov, el actual desarrollo así lo demuestra. Mientras tanto, compañías como Facebook, Google, IBM o LinkedIn continuarán potenciando su software hasta que nada (o casi nada) quede al azar.

“Podrían (los robots) llegar a tomar el control y rediseseñarse a sí mismos”, dice Stephen Hawking.

Esperemos que el científico británico no esté en lo cierto…

 

 

 

 

 

 

Tweet about this on TwitterShare on Facebook0Share on Google+0Email this to someoneShare on LinkedIn6Pin on Pinterest0
Tags: , ,

Otras Publicaciones