Hemos avanzado tan rápido los últimos años en inteligencia artificial que pensábamos que los robots serían tanto o más inteligentes que nosotros en poco tiempo. De pronto, nos hemos dado cuenta de que los desarrollos actuales no dan más de sí. Los avances actuales en IA han llegado a un callejón sin salida y tenemos que replantearnos toda la disciplina.
No es oro todo lo que reluce
Es habitual ver artículos que hablan de los grandes avances de la Inteligencia Artificial, en los que siempre se menciona el impacto que tendrá la IA en los trabajos. ¡Nosotros también lo hemos hecho! Se argumenta a menudo que todos (o casi todos) los empleos peligran y que nuestras actividades remuneradas las podrán hacer las máquinas en poco tiempo. Por poner algunos ejemplos:
- En solo 5 años, el 6% de los empleos serán destruidos por la Inteligencia Artificial
- La Inteligencia Artificial puede amenazar hasta el 47% de empleos en 20 años
- “La inteligencia artificial causará pronto un desempleo masivo y no estamos preparados”
Lo cierto es que hay algo de verídico en las anteriores noticias. La automatización y la IA van a eliminar muchos empleos actuales y tenemos que saber cómo gestionarlo. Sin embargo, hay que ser muy cautos con las predicciones de futuro. Siempre ha habido automatización, o al menos desde la época de la primera revolución industrial. Siempre se ha argumentado que la tecnología acabaría con el empleo humano y jamás ha sucedido. La automatización elimina ciertos trabajos, pero aparecen otros nuevos. La mayoría de los argumentos actuales sobre la posible destrucción de empleo futura, son argumentos antiguos.
Por otro lado, es cierto que la IA tiene algo diferente, y ya lo comentamos en un artículo anterior. Es posible que en algún momento, debido a la velocidad de mejora de la Inteligencia Artificial, no seamos capaces de crear nuevos empleos para los humanos al mismo ritmo que el que son sustituidos por nuestros compañeros virtuales.
Sin embargo, la verdadera amenaza necesita un requisito: que las máquinas piensen. Que las máquinas sean realmente inteligentes y no sólo se queden en actividades muy específicas como hasta ahora. Esto se denomina comúnmente Inteligencia Artificial General y estamos muy lejos de conseguirla. De hecho, puede que con el enfoque de investigación y desarrollo actual, nunca lleguemos a ella.
¿Hemos llegado a una calle sin salida en la investigación de Inteligencia Artificial?
Cada vez más, académicos, científicos y líderes empresariales están re-evaluando el progreso de la Inteligencia Artificial. En este anterior artículo, os traíamos las palabras de Geoffrey Hinton y todo lo que implicaban:
“Mi visión respecto a la IA es: tiradlo todo por la borda y empezad de nuevo”
¿Qué ha logrado la IA y qué obstáculos quedan?

Gary Marcus, profesor de la New York University, destacó de nuevo este asunto en un seminario del MIT IDE el pasado 15 de noviembre de 2017 titulado: Artificial General Intelligence: Why Aren’ t we there yet? (Inteligencia artificial general: ¿Por qué no hemos llegado todavía?)
Marcus es cauto con muchas afirmaciones sobre la IA y los triunfos del aprendizaje automático. Por ejemplo, dice que “todavía nos queda un largo camino por recorrer para el diagnóstico automatizado, los robots domésticos, la comprensión de escenas y los coches seguros y fiables sin conductor”.
Y es que como bien puntualiza, “una tasa de precisión o de éxito del 80% puede ser aceptable para la publicidad o para motores de recomendación en Internet, pero no para el diagnóstico médico o los vehículos autónomos. Muchas tecnologías funcionan bien en el laboratorio, pero no en la vida diaria”.
¿Qué se necesita para llevar a la IA hasta algo comparable con la inteligencia humana?
Los sistemas de inteligencia intelectual polivalentes y todopoderosos, capaces de abastecer todas nuestras necesidades intelectuales, han sido prometidos durante seis décadas, pero aún no han llegado.
Según Marcus, se necesitan avances más profundos en el reconocimiento del habla y el lenguaje, así como inferencia y toma de decisiones. El aprendizaje automático ha mejorado, pero no es equivalente ni siquiera cercano a los humanos en muchas situaciones. Esta opinión es muy similar a la que ya hemos dado en Puentes Digitales con anterioridad, pues hemos destacado que la IA debería desarrollarse junto al lenguaje y no para el lenguaje.
El escepticismo en la Inteligencia Artificial es necesario para seguir mejorando
Marcus y Hinton no está solos. Un titular reciente en la Revista Tecnológica del MIT proclamaba que “El progreso en IAno es tan impresionante como se podría pensar“. Según Erik Brynjolfsson, director del MIT IDE y uno de los autores del informe:
“No cabe duda de que en los últimos años se han producido varios avances. Pero también está claro que estamos muy lejos de la inteligencia general artificial.”
Brynjolfsson, junto con sus compañeros de la Universidad de Stanford, SRI International, y OpenAI, están creando un índice de Inteligencia Artificial para examinar la “burbuja de IA” que existe actualmente. Varios expertos citados en el artículo de Tech Review señalan la necesidad de enormes cantidades de datos para entrenar los sistemas actuales de IA y su incapacidad para generalizar sobre la solución de una variedad de problemas.
Desde el punto de vista económico, Brynjolfsson también acaba de publicar un artículo de investigación que plantea interrogantes sobre la falta de aumentos de productividad a pesar de los avances tecnológicos en IA. Según él, “las capacidades más impresionantes de la IA, particularmente aquellas basadas en el aprendizaje automático, no se han difundido aún ampliamente. Y lo que es más importante, al igual que otras tecnologías de propósito general, sus efectos completos no se realizarán hasta que se desarrollen e implementen oleadas de innovaciones complementarias “.
El aprendizaje máquina es difícil de depurar, revisar y verificar. No tenemos procedimientos para construir sistemas cognitivos complejos. Tenemos grandes recursos de datos, pero no suficientes datos precisos y valiosos, así como conocimiento abstracto para las tareas complejas requeridas. Por ejemplo: ¿Cómo adquieren sentido común las máquinas? Podemos usar el reconocimiento de voz en la búsqueda, pero no en la conversación. Del mismo modo, el reconocimiento de la imagen y el lenguaje natural pueden aplicarse a operaciones muy específicas, pero no a propósitos generales.
La dificultad de emular el aprendizaje humano
Como profesor de Psicología y Ciencias Neurales que es, Marcus se acerca a la Inteligencia Artificial desde una perspectiva conductual. Dice, por ejemplo, que hay un enorme sesgo en el aprendizaje automático de que todo se aprende y nada es innato, lo que ignora los instintos humanos y la biología cerebral. Para que las máquinas formen metas, determinen resultados y resuelvan problemas, los algoritmos necesitan emular los procesos de aprendizaje humano con mucha más precisión. Y eso nos llevará algún tiempo.
Si queremos que las máquinas tengan procesos cognitivos similares a los humanos (al menos en resultado), necesariamente tendremos que acercarlas a nosotros. Debemos entender en detalle nuestros procesos biológicos y cognitivos para poder aplicarlos a las máquinas. En nuestro orgulloso camino de desarrollo de Inteligencia Artificial nos hemos encontrado con un gran abismo sin respuesta:
¿Cómo pensamos los humanos?
Para dar inteligencia a las máquinas, primero tendremos que entendernos a nosotros mismos.
Fuente: Medium
Reblogueó esto en Arcanus's Random Stuffs.
Excelente información, muy digerible y fácil de entender. Gracias