Novedades | News

Facebook apaga inteligencia artificial (AI) por preocupaciones de seguridad

 
Logo KW
Facebook apaga inteligencia artificial (AI) por preocupaciones de seguridad
de System Administrator - viernes, 4 de agosto de 2017, 14:32
Grupo Colaboradores / Partners

Facebook apaga inteligencia artificial (AI) por preocupaciones de seguridad

por Cliff Saran

Revelaciones de que investigadores en Facebook tuvieron que desactivar dos bots que se rebelaron han planteado preguntas sobre la seguridad de la inteligencia artificial.

Un investigador de Facebook AI Research (Fair) ha admitido que el equipo del gigante de las redes sociales decidió desconectar dos bots después de que comenzaron a comunicarse en su propio idioma, semejante al inglés, que era ininteligible para los seres humanos.

El investigador de AI, Dhruv Batra dijo a la página web Co.Design que el equipo había desarrollado agentes chatbot con la capacidad de negociar utilizando lo que se denomina una "red de confrontación".

En un blog de Facebook, los investigadores explicaron cómo, en algunos casos, sus chatbots inicialmente fingían interés en un elemento sin valor, solo para "comprometerse" posteriormente concediéndolo, una táctica de negociación efectiva que la gente usa regularmente. "Este comportamiento no fue programado por los investigadores, pero fue descubierto por el bot como un método de intentar alcanzar sus objetivos", dijo Facebook.

Uno de los hallazgos del experimento fue que, aunque los chatbots repitieron oraciones a partir de datos de entrenamiento, el trabajo de investigación mostró que los modelos de AI son capaces de generalizar cuando es necesario.

"Es posible que el lenguaje pueda ser comprimido, no solo para ahorrar caracteres, sino comprimido a una forma en la que pueda expresar un pensamiento sofisticado", dijo Batra a Co.Design.

El equipo en Fair decidió apagar los chatbots porque creían que era necesario entender de qué estaban hablando los bots.

Esta es una situación sobre la cual el CEO de Tesla y SpaceX, Elon Musk, ha advertido anteriormente: la pesadilla de la AI que trabaja en contra de los mejores intereses de la humanidad.

En declaraciones en la Asociación Nacional de Gobernadores el 15 de julio, Musk advirtió a los delegados del gobierno de Estados Unidos que, si no se controla, la AI representa un serio riesgo para la sociedad.

, preguntó sobre el papel que debería tomar el gobierno, Musk dijo: "Creo que uno de los papeles del gobierno es asegurar el bien público, y asegurar que se aborden los peligros para el público".

Musk dijo a los delegados que la tasa de progreso en la AI significaba que algunos conceptos que los expertos pensaban que tomarían años en lograr, como por ejemplo que AI sea capaz de vencer a un humano en el juego de mesa chino Go, ahora han sucedido.

La gente pensó que serían necesarios 20 años para que una computadora pudiera derrotar a un ser humano en Go, dijo. "El año pasado, AlphaGo de la filial de Google DeepMind absolutamente aplastó al mejor jugador del mundo. Ahora puede jugar con los 50 mejores jugadores de Go, y aplastarlos a todos. El ritmo del progreso es notable. Puedes ver robots que pueden aprender a caminar de la nada en cuestión de horas, lo que es mucho más rápido que cualquier ser biológico".

Musk dijo que su peor escenario de pesadilla es una profunda inteligencia en la red. "¿Qué daño podría hacer la inteligencia profunda en la red? Bueno, podría comenzar una guerra haciendo noticias falsas y creando cuentas falsas de correo electrónico, y simplemente manipulando la información", dijo.

Dando un ejemplo hipotético, Musk dijo: "Saben que había ese segundo avión de pasajeros malasio que fue derribado en la frontera ucraniana/rusa. Eso amplió realmente las tensiones entre Rusia y la UE. Si tuviera una AI cuyo objetivo fuera ampliar el valor de las acciones, una forma de maximizar el valor sería ir de largo en defensa, corto de consumo y comenzar una guerra”.

"¿Cómo haría eso? Podría hackear los servidores de la aerolínea de Malasia, conducir a la aerolínea a una zona de guerra, y luego enviar un tip anónimo de que un avión enemigo está volando sobre ellos ahora mismo”.

Douglas Anthony Ducey, gobernador de Arizona, preguntó sobre el tipo de regulaciones que deberían estar en vigor. Musk dijo: "El primer orden de negocios es establecer una agencia reguladora cuyo primer objetivo sería obtener información. Una vez entendida la situación, poner en marcha regulaciones para garantizar la seguridad pública. La mayoría de las empresas que hacen AI se quejarán y dirán que las regulaciones realmente ahogan la innovación. Pero una vez que haya conciencia, la gente tendrá mucho miedo".

Menos de una semana después de la llamada de Musk para la regulación de AI, el CEO de Facebook, Mark Zuckerberg, dio su opinión sobre el asunto durante una transmisión en vivo, donde tomó preguntas de los usuarios del sitio de comunicación social mientras él estaba cocinando en su jardín.

En respuesta a la pregunta de un usuario de Facebook sobre las preocupaciones de Musk sobre AI, Zuckerberg dijo: "Tengo opiniones bastante fuertes sobre esto. Soy muy optimista. Puedes construir cosas y el mundo se pone mejor. Con AI, sobre todo, soy muy optimista y creo que las personas que son negativas y tratan de montar estos escenarios apocalípticos son bastante irresponsables. Realmente no lo entiendo”.

Zuckerberg dijo que dentro de cinco a 10 años, habrá avances de AI que ofrecen la perspectiva de mejorar la calidad de vida de las personas. Usando AI en la salud y en la seguridad de caminos como ejemplo, Zuckerberg dijo: "AI ya está ayudando a diagnosticar mejor las enfermedades, a combinar las drogas con las personas para que puedan ser tratadas mejor".

Tecnología para el bien y el mal

La tecnología siempre se puede utilizar tanto para lo bueno como para lo malo, agregó. "Debes tener cuidado de cómo la construyes y de lo que construyes, pero la gente está discutiendo para frenar el proceso de construcción de la AI", dijo. "Simplemente encuentro eso realmente cuestionable".

Aunque no se refirió directamente a la llamada de Musk para regular la AI, Zuckerberg dijo: "Si usted está discutiendo contra la AI, entonces está discutiendo contra los coches más seguros que no van a tener accidentes, y está argumentando contra tener un mejor diagnóstico para las personas cuando están enfermas. No veo cómo, en buena conciencia, la gente puede hacer eso".

Musk respondió a las declaraciones de Zuckerberg en Twitter, donde dijo: "He hablado con Mark sobre esto. Su comprensión del tema es limitada".

En el Reino Unido, la Cámara de los Lores ha empezado a investigar la AI con vistas a la cantidad de regulación que se necesita. La investigación de los Lords está estudiando las implicaciones éticas del desarrollo y uso de la AI, el papel que el gobierno debe tomar y si la AI necesita ser regulada.

Lord Clement-Jones, presidente del comité selecto de inteligencia artificial, dijo: "El comité quiere usar esta investigación para entender qué oportunidades existen para la sociedad en el desarrollo y uso de la inteligencia artificial, así como los riesgos que podrían existir".

La idea de que una AI utilizará los medios más eficientes para alcanzar sus objetivos es un concepto bien entendido. Los chatbots de Facebook demostraron esto muy públicamente. Apenas dos meses después de que el equipo de Facebook publicó un blog sobre la investigación de avance y contribuyó el código detrás del proyecto a la comunidad de código abierto, los bots han sido terminados porque inventaron un medio más eficiente de comunicación.

Una de las promesas de la AI es que tiene la capacidad de arrastrar masas de datos y derivar nuevo significado y valor de esos datos, sin necesidad de ningún tipo de orientación de los seres humanos. Zuckerberg habló sobre algunos de estos beneficios para la humanidad durante su sesión de cocina de webcast, pero Musk cree que el poder podría tener consecuencias imprevistas.

Link: http://searchdatacenter.techtarget.com