La falsa noticia de la Inteligencia Artificial que tuvo que ser apagada

EZ7txMxHace unos días multitud de medios publicaban una noticia que, en sus distintas redacciones, mostraban titulares como los siguientes:

Facebook apaga una inteligencia artificial que había inventado su propio idioma

Facebook ha tenido que desactivar esta IA porque había creado un idioma propio

Facebook ha apagado una inteligencia artificial que había «cobrado vida»

Da miedo, ¿verdad? El último titular es para estudiarse en las escuelas de periodismo.

En el momento en que se publicó la noticia, existía poca información al respecto. En Puentes Digitales no la publicamos, ya que intuíamos que podía ser sensacionalismo en busca del miedo de la gente. La Inteligencia Artificial crea rechazo o incertidumbre a muchas personas, lo cual es algo que tratamos de solventar en nuestro proyecto, ya que noticias como las anteriores se aprovechan de dichas emociones para conseguir más visitas.

La verdad de la noticia es muy diferente a lo contado

c-3po-r2-d2-art-fx-statue-ktosw67-kotobukiya-star-wars-action-figure

Ahora ya sabemos que la noticia no fue realmente como fue contada la primera vez, gracias a la publicación de Mark Wilson en Co.Design.

Facebook creó unos bots operados bajo redes neuronales con el objetivo de mejorar el diálogo con los humanos. Hemos hablado en el pasado largo y tendido sobre las redes neuronales y cómo son la base actual de los desarrollos en Inteligencia Artificial, como por ejemplo aquí, aquí y aquí.

A continuación se muestra un fragmento de dos bots de Facebook conversando, traducido al español. Se puede ver cómo en un momento de su discusión, ambos programas crean frases que nos pueden resultar absurdas, pero que a ellos les eran útiles para comunicarse:

[Bob: Puedo yo yo todo lo demás]

[Alice: pelotas tienen cero para mí para mí para mí para mí para mí para mí para mí para mí para]

[Bob: tú yo todo lo demás]

[Alice: pelotas tienen una pelota para mí para mí para mí para mí para mí para mí para mí para mí] 

Facebook está en busca de desarrollar una “red generativa adversaria” con el fin de desarrollar un software de negociación. La negociación es una habilidad básica de los humanos. De este modo, la conversación que debían mantener los bots debía incluir tales capacidades.

qbpw941bamt6jxjkxkpj.gif

Cuando los ingenieros programaron a los dos “bots” para que hablasen entre ellos, se dieron cuenta a posteriori de que cometieron un error: no habían forzado a los chatbots a que se comunicasen según las reglas de un inglés comprensible para los humanos. De este modo, los bots comenzaron a conversar entre ellos con abreviaturas que creaban para simplificar la comunicación.

“Es como si yo dijese ‘el’ cinco veces; tú interpretarías que quiero cinco copias de este ítem. No es tan distinta de la forma en que las comunidades humanas crean abreviaturas”. -Dhruv Batra, investigador visitante del FAIR (equipo de investigación en AI de Facebook)

Y Facebook apagó el experimento

1-afwHTqMji4HhaXOEslyadQ.gif

Es cierto que Facebook “apagó” ambos bots, pero no porque entrasen en pánico por haber liberado a Skynet. Simplemente los investigadores decidieron que el experimento ya no les era de mucha ayuda, ya que la intención inicial era que los bots pudiesen hablar con la gente.

Los desarrollos actuales de IA o de redes neuronales no son peligrosos en sí mismos. Ni estamos en un estado de peligro de crear una inteligencia propia que tome conciencia y arrase con todos nosotros.

El mundo real difiere mucho de la ciencia ficción y, en muchas ocasiones, de las noticias sensacionalistas, como vemos en este caso. Es importante que aprendamos con objetividad y mesura, en qué consiste la IA, las redes neuronales, el machine learning, el deep learning y todos los desarrollos actuales que, en definitiva, crearán un mundo mejor pero, sin duda, diferente al que vivimos actualmente.

 

Fuentes: Gizmodo, Microsiervos

Deja un comentario