Novedades | News

El incidente de los bots de AI de Facebook no es para tanto… todavía

 
Logo KW
El incidente de los bots de AI de Facebook no es para tanto… todavía
de System Administrator - viernes, 11 de agosto de 2017, 14:10
Grupo Colaboradores / Partners

El incidente de los bots de AI de Facebook no es para tanto… todavía

Tras la oleada de artículos que hablaban sobre las preocupaciones de seguridad cibernética en torno a la inteligencia artificial, expertos opinaron sobre el tema y explicaron el incidente.

Hace unos días, publicamos un artículo traducido de nuestro sitio hermano en el Reino Unido, Computer Weekly, el cual mencionaba que Facebook “apagó” dos bots de inteligencia artificial (AI). El autor del artículo, Cliff Saran, explicaba que este incidente levantó preocupaciones de ciberseguridad relacionadas con los avances de la inteligencia artificial.

Las publicaciones de diversos medios de comunicación, sin embargo, se orientaron a una comparación futurista de escenarios como los que se plantean en películas como “Yo, Robot”, “Terminator” o incluso “Resident Evil”, en los que la inteligencia artificial se convierte en un ente independiente, capaz de tomar decisiones sin intervención humana, y, más aún, despertando un emocional sentido de exterminio de la humanidad –o privación de la libertad, en el mejor de los casos, en aras de asegurar la existencia, que los humanos ponemos en riesgo constantemente.

Ante esta oleada de publicaciones un tanto alarmistas, uno de los científicos del departamento de investigación de AI en Facebook (FAIR) emitió un comunicado en su cuenta de Twitter. Dhruv Batra, quien es profesor investigador en el Departamento de ingeniería computacional y eléctrica de Virginia Tech, y profesor en la Escuela de cómputo interactivo de Georgia Tech, expresó su molestia sobre el tono de las publicaciones.

Un fragmento de su post en Twitter argumentaba: “Si bien la idea de que los agentes de AI inventen su propio lenguaje puede parecer alarmante o inesperado para la gente que no está en la industria, es un campo dentro de la inteligencia artificial que está bien documentado con publicaciones desde hace décadas. De manera simple, los agentes en ambientes que intentan realizar alguna tarea frecuentemente encontrarán formas no intuitivas de maximizar la recompensa. Analizar la función de resultados y cambiar los parámetros de un experimento NO es lo mismo que ‘desconectar’ o ‘apagar’ la inteligencia artificial. Si ese fuera el caso, cada investigador de AI ha estado apagando la inteligencia artificial cada vez que matan un trabajo en una máquina.”

Opiniones encontradas

Si bien Batra defendió no solo el trabajo de AI en Facebook, sino las investigaciones de inteligencia artificial en general, los temores levantados por la noticia tal vez no estén del todo infundados.

Ciertamente, yo misma creo que hay una gran diferencia entre la capacidad de toma de decisiones automatizadas y la inclusión de emociones, o razonamientos emocionales, en esta toma de decisiones. Un futuro en el que las máquinas decidan exterminar al ser humano me parece improbable porque eso requiere un factor emocional, un tanto de odio, o temor, e instinto de preservación en sistemas computacionales. Quienes hemos leído o visto filmes de ciencia ficción sobre el futuro de la robótica, sabemos que un sistema de AI bien hecho debería incluir las tres leyes de la robótica, difundidas por Isaac Asimov; de manera que los robots no considerarían dañar a los seres humanos.

Sin embargo, no podemos negar que los sistemas computacionales son alimentados por cada vez más datos, generan sus propios algoritmos, aprenden de los incidentes, encuentran formas de resolverlos y generan nuevos parámetros de operación. Y lo hacen a una velocidad tan vertiginosa que el ser humano difícilmente puede seguirles el paso. Y tal vez eso es lo que nos aterra. No en balde el afamado científico Stephen Hawking advirtió hace unos meses, durante un evento en China, que la AI podría rediseñarse para convertirse en una red independiente y mejorar su sistema.

Aunque tal vez todavía estemos lejos de ello. Y lo que pasó en Facebook aún dista de ser un tema de alarma.

El pasado 14 de junio, Facebook publicó un post en su blog sobre cómo enseñar a los chatbots a negociar, a través de conversaciones cortas, basadas en texto, con seres humanos o con otros bots. En ese post se explica que Facebook estaba experimentando con bots para que negociaran la propiedad de elementos virtuales. Los bots, a su vez, experimentaban con lenguaje para dominar la discusión. En algunos casos, las conversaciones no tenían sentido.

Algunos informes sugerían que los bots habían inventado un nuevo lenguaje para eludir a los amos humanos, pero, de acuerdo con Gizmodo, hay una mejor explicación: las redes neuronales trataban de modificar el lenguaje humano para realizar interacciones más exitosas. “En sus intentos de aprender unos de otros, los bots empezaron a chatear entre ellos, y aunque parezca escalofriante, no se trató de nada más”, publicó el portal.

La filial de Gizmodo en español también dio seguimiento a la noticia. Publicaron una nota explicando que los bots de Facebook no hicieron más que discutir entre ellos cómo dividir una matriz de elementos dados (representada en la interfaz de usuario como inocuos objetos como libros, sombreros y pelotas), de una manera que el resultado fuese mutuamente aceptable. Sin embargo, los programadores cayeron en la cuenta de que cometieron un error: no incentivaron a los chatbots a comunicarse según las reglas de un inglés comprensible para los humanos. “En su intento por aprender el uno del otro, los bots conversaban entre ellos en abreviaturas que creaban”, se lee en la nota.

Mike Lewis, investigador del FAIR, declaró para FastCo que solo querían diseñar dos bots que puedan hablar con la gente, así que decidió exigirles que se escriban entre ellos de forma legible. Y esta fue la razón de fondo para “apagar” los bots.

Vale la pena recordar que recientemente Facebook limitó la liberación de su plataforma de chatbots, al descubrir que muchos de los bots no podían resolver el 70% de las inquietudes de los usuarios. Así pues, parece que los bots están muy lejos de reemplazar a los humanos en lo que respecta a la negociación y solución de problemas.

Otros ejemplos de aprendizaje automático incluyen los avances del software de traducción de Google y un sistema de OpenAI que inventa su propio lenguaje, mejorando su capacidad para procesar la información y solucionar problemas.

Más:

Link: http://searchdatacenter.techtarget.com