Los 10 mayores retos en Machine Learning en 2017

El desarrollo en inteligencia artificial está siendo asombroso y en Puentes Digitales tratamos de hacéroslo llegar con cierta frecuencia, ya que se trata de uno de los avances tecnológicos más importantes que está viviendo el ser humano en la actualidad. Algunos ejemplos de artículos pasados y que os recomendamos leer para entender el impacto de esta tecnología son:

homepage-math-header-new-3.jpg

El artículo de hoy persigue orientar a aquellas personas que ven potencial en el aprendizaje automático (machine learning) o están estudiando sobre la materia y quieren conocer el estado actual de la disciplina. El machine learning es un método o campo de la computación, pieza fundamental de nuestros desarrollos en IA. Se trata de desarrollar técnicas que permitan a las computadoras aprender, en un proceso de inducción del conocimiento, a partir de ejemplos suministrados.

Mostramos un resumen de varias respuestas de Quora, donde expertos en la materia compilan los puntos clave para este año (y próximos) en el desarrollo de inteligencia artificial.

La carrera está en desarrollar una Artificial General Intelligence (AGI), es decir, una Inteligencia Artificial (IA) de carácter general, o que resuelva problemas generales, tal y como hacemos nosotros.

Los retos más acuciantes para el 2017 son:

1   Memoria

descarga (6)

Tenemos que empezar a aceptar que la inteligencia requiere una GRAN cantidad de memoria para almacenar hechos pasados. Hay que explorar cómo resolver este problema en la Inteligencia Artificial.

Las redes neuronales aumentadas de memoria (memory augmented neural networks) son un tipo de red neuronal conectada a un bloque de memoria que puede ser leído y escrito por la red. Necesitamos encontrar una mejor manera para que estas redes descubran hechos, los almacenen y los utilicen con eficacia para resolver problemas.

2   Ordenadores neuronales diferenciables

main-qimg-08b667f9a7706e0cf2baf70cd00450b4.png

Differentiable neural computers (DNC). Son un tipo especial de redes neuronales aumentadas de memoria. Algo así como una computadora digital, con componentes similares a los físicos, como por ejemplo memoria RAM y controladores. De ahí el nombre DNC. Estos sistemas pueden “pensar” pero no son fáciles de escalar.

Hay que encontrar una manera de escalar estas soluciones porque tienen potencial para resolver, entre otros, el punto anterior.

3   Detección y análisis de objetos

PLACEMETER.gif

La clasificación de imágenes + localización sigue siendo todo un desafío en la disciplina de computer vision y machine learning. Se espera mejorar esto mucho en 2017. Ahora mismo se ha “resuelto” el tema de la clasificación, pero hay que conseguir que la máquina realmente “comprenda” qué significa la imagen.

La capacidad de obtener información a partir de la vista es común en la mayor parte de los seres vivos. Se trata de un método muy efectivo de comprensión del entorno, ya que con pocos volúmenes de datos y poco tiempo (un golpe de vista) podemos acceder a mucha información de nuestra cercanía.

Un ejemplo de gran avance en este campo es Google, como vimos en este artículo.

4   Atención

Figure3_attention_1-624x352.png

Se refiere a la capacidad de la máquina de centrarse en un fragmento más pequeño de los estímulos de entrada que recibe a la vez, y luego integrar los resultados al final. Esto es fundamental para resolver también el punto anterior.

El sistema visual humano utiliza el concepto de atención para integrar un conjunto mucho más rico de características de una manera robusta. Necesitamos tales mecanismos incorporados en las redes neuronales para que se conviertan en mejores y más eficientes. La velocidad de procesamiento tiene que trabajarse también por métodos inteligentes, no sólo fuerza bruta.

5   Razonamiento

descarga (7).jpg

Sería un salto de gigante en Inteligencia Artificial y la puerta de entrada a la Inteligencia Artificial General.

La única manera de conseguir que una Inteligencia Artificial razone es que sea capaz de almacenar ideas en la memoria de forma que pueda manipularlas y utilizarlas cuando lo necesite (punto 1).

Lo que se busca es la capacidad de las máquinas de representar ideas.

Actualmente estamos enseñando a las computadoras a representar lenguajes y simular razonamientos (que no razonar). Necesitamos un “modelo de ideas” que sea independiente del lenguaje. La interfaz con ese modelo sería una especie de traductor entre su propio idioma y el idioma del modelo de ideas de la máquina. Muy poco se está haciendo en esta área.

pd-white-01
Por ejemplo, cuando un humano trata de razonar el concepto de “distancia” de un objeto, desarrolla un proceso de procesamiento de ideas que va más allá de la clasificación y la comparación. Se analizan conceptos desde su raíz y desde distintas perceptivas de análisis, las cuales además siempre varían en cada problema.

Una opción es construir manualmente un nuevo modelo de pensamiento para computadoras. Esto requeriría una colaboración masiva entre informáticos, lingüistas, neurocientíficos, filósofos, matemáticos y otros. No es fácil que esto suceda pronto a menos que un gigante tecnológico como Google o Microsoft decida invertir enormes cantidades de dinero en ello.

Aún así parece que es un problema que alguien tendrá que atacar eventualmente. Una vez tengamos un modelo de ideas en lugar de un lenguaje, podremos tratar de formar una red que realice un razonamiento real. No sólo aprenderá asociaciones entre palabras como un chatbot, sino que será capaz de sacar conclusiones tras combinar ideas. Se necesitará mucho trabajo para lograr este nivel de razonamiento generalizado.

La mayor parte de lo anterior está mucho más allá de lo que veremos en 2017.

6   Terminar de definir todo como diferenciable

300px-Fuzzy_logic_temperature_en.svg.png

En nuestra cultura de computación, los 1 y 0 son nuestros pilares bases. Seguimos clasificando todo sin definir estados intermedios, pese a nuestros desarrollos en sistemas fuzzy o soft.

Gran parte de los retos en IA que pueden conducir a una “inteligencia fuerte” no son fácilmente diferenciables. La introducción de un problema diferenciable simplificado significa que siempre tendrán estados llamados “débiles”. Como solemos decir, no todo es blanco o negro sino gris, así que la toma de decisiones debe hacerse con un espíritu similar desde el inicio.

7   Entrenamiento con vídeo

OpenAI-Universe-artifical-intelligence-training-ground-video-games.png

Empecemos a entrenar a nuestras máquinas con datos de vídeo. Hemos estado usando imágenes estáticas para que aprendan durante mucho tiempo. Construyamos sistemas de Machine Learning que aprendan mediante observaciones y escucha de visualizaciones con movimiento, no estático.

Los conjuntos de datos de vídeo son mucho más ricos en contenido que las imágenes estáticas. Los humanos aprendemos observando un mundo dinámico y no estático. Hay señales importantes en el vídeo que obviamente pueden ayudar al aprendizaje.

8   Aprendizaje One-shot

Blog_20160912-1.jpg

Se refiere a la capacidad de aprender utilizando muy pocos o sólo un ejemplo.

Actualmente el aprendizaje máquina necesita muchos datos de entrada y ejemplos para aprender a hacer algo. Necesitamos sistemas de aprendizaje más profundos que puedan aprender de los ejemplos más pequeños posibles.

De forma similar, necesitamos encontrar una forma de hacer que nuestros sistemas sean capaces de responder de manera eficiente y significativa, incluso si el espacio de eventos varía ampliamente en comparación con los datos de entrenamiento.

Muchos investigadores apuntan a que resolver el problema de la memoria (punto 1) es la clave para avanzar en este asunto. La solución de una red de memoria permitiría almacenar información sobre ejemplos pasados, de tal manera que cuando llega un nuevo ejemplo, se busca en la memoria experiencias útiles que se aproximen para desarrollar una respuesta nueva.

En un futuro, una inteligencia y memoria colectiva entre todos los entes pensantes artificiales podría solucionar este reto. Algo así como crear una mente enjambre.

9   No free lunch theorem

 

descarga (8)

El No Free Lunch Theorem (NFLT) o teorema del almuerzo libre, el un teorema que define que para ciertos tipos de problemas matemáticos, el coste computacional de encontrar una solución promediada sobre todos los problemas de su clase, es la misma para cualquier método de solución. El teorema define que ninguna solución ofrece un “atajo” en computación. En informática, hay circunstancias en las cuales las salidas de todos los procedimientos que resuelven un tipo particular de problema son estadísticamente idénticas.

En relación con lo anterior, tenemos que entender que el Deep Learning por sí solo no resolverá la inteligencia artificial. Necesitamos unir algoritmos en conjuntos: DL + algo + algo2 + … + algoN, para resolver la inteligencia artificial. Sólo un sistema modular puede resolver la inteligencia.

10   Democratizar la IA

Es fundamental seguir democratizando la IA, las grandes capacidades de computación y el Big Data. Los cerebros para resolver la inteligencia están en todo el mundo y la mayoría de ellos están todavía en el colegio.

Es interesante en este punto la visión de Satya Nadella, CEO de Microsoft:

 


 

Vía: Quora

[1] https://arxiv.org/pdf/1605.07427…

[2] Differentiable neural computers | DeepMind

[3] Faster R-CNN Detection Paris Walk

[4] Attention and Memory in Deep Learning and NLP

[5] Feature integration theory – Wikipedia

[6] Conner Davis’ answer to What are the Top 10 problems in Machine Learning for 2017?

[7] One-shot learning – Wikipedia

[8] Attacking machine learning with adversarial examples

5 comentarios en “Los 10 mayores retos en Machine Learning en 2017

Deja un comentario