Alan Turing, pionero matemático inglés, considerado como el padre de la informática teórica y la inteligencia artificial. Turing desempeñó un papel fundamental en el descifrado de mensajes codificados interceptados durante la Segunda Guerra Mundial, que permitieron a los aliados derrotar a los nazis en muchos enfrentamientos fundamentales que ayudaron a ganar la guerra. Pero Turing, además, tuvo una teoría muy interesante, tomando una dirección prometedora para la investigación de IA en 1950. “En lugar de intentar producir un programa para simular la mente adulta”, escribió, “¿por qué no intentar producir uno que simule la de los niños?”

Ahora, investigadores en IA, están poniendo por fin en acción las ideas de Turing. Prestar atención a cómo los niños procesan la información puede proporcionar valiosas lecciones sobre cómo crear máquinas que aprendan.

@itshoobastank

En busca de máquinas que aprenden

DARPA, la agencia de investigación avanzada del Departamento de Defensa de EEUU, está adoptando este enfoque. Recientemente incorporó propuestas de equipos interdisciplinarios de informáticos y psicólogos del desarrollo que trabajarán para crear sistemas de inteligencia artificial capaces de aprender lo que los bebés aprenden en los primeros años de vida.

Alison Gopnik dice que este enfoque es el camino obvio a seguir y explica por qué en un ensayo titulado AIs Versus Four-Year-Olds, que aparece en la nueva antología Possible Minds: 25 Ways of Looking at AI. Observa como los niños en edad preescolar pueden aprender cosas que incluso las IAs más sofisticados no pueden. Gopnik argumenta que estudiar a los niños puede darles a los programadores consejos útiles sobre las instrucciones para el aprendizaje de las futuras IA.

“Cuando le das a las IAs un gran conjunto de datos, pueden descubrir la diferencia entre gatos y perros. Eso es muy impresionante. Pero no son buenos si se introduce un cambio, o si hay datos que provienen de una fuente diferente, o si modifica alguna característica de alto nivel del entorno. Tienen lo que se llama “olvido catastrófico”, tienen que volver a aprender lo que ya habían aprendido. Pero de alguna manera, los niños pueden enfrentarse a una nueva tarea, algo que nunca han visto antes, y pueden descubrir qué es lo correcto,” cuenta Gopnik.

AlphaZero, aprendió sorprendentemente a jugar ajedrez. Pero si cambias las reglas, ahora el alfil no puede ir en diagonal, solo puede ir horizontalmente, los sistemas de IA tienen muchas dificultades para aprender eso, porque han prendido toda la información de todas las veces que han jugado al juego anteriormente. Un jugador de ajedrez humano, incluso un niño, entenderá inmediatamente cómo transferir esa nueva regla al juego. La flexibilidad y la generalización son aspectos que incluso los humanos de 1 año pueden tener, pero que a los mejores sistemas de aprendizaje automático les resulta mucho más difícil.

@joshappel

Gopnik explica por qué muchas cosas son fáciles para los niños pero difíciles para los ordenadores programados.

“Se llama la paradoja de Moravec: las cosas que pensamos que serían difíciles, como jugar al ajedrez, son cosas que las máquinas pueden hacer muy fácilmente, pero no pueden hacer las cosas que un niño de 4 años puede hacer.

El rompecabezas para la psicología del desarrollo es que no entendemos realmente cómo es que los niños pueden hacer fácilmente lo que hacen. Sabemos que pueden hacer estas inferencias amplias a partir de cantidades muy pequeñas de datos. Tienen un gran conocimiento [innato] a través de la evolución. Pero ¿cómo pueden hacer buenas inferencias sobre cosas que no formaban parte de nuestra ascendencia evolutiva? Mira a un niño de 4 años con un teléfono inteligente. ¡Pueden manejarlo mejor que tú! Este sistema no ha estado fuera en el mundo antes, pero los niños son muy buenos para dominarlo. No tenemos ni idea de cómo es posible.”

Los niños son curiosos, las IAs no

Los niños están en el mundo real. Sabemos que pasan mucho tiempo haciendo experimentos y obteniendo datos que son relevantes para los problemas que intentan resolver. Son curiosos, mientras que la IA solo existe dentro de un ordenador. Los psicólogos lo llaman aprendizaje activo. Esa capacidad de salir al mundo y experimentar, en lugar de simplemente tomar la información que alguien te presenta, eso es algo muy distintivo a la hora de observar cómo aprenden los niños. Ahora, Alison Gopnik, está colaborando con la universidad de Berkley para diseñar una IA curiosa. No solo está recogiendo datos de la información que la alimenta, sino que sale a buscar información basada en algo que no encaja con lo que ya sabe.

Ibuki, el niño robot del profesor Hiroshi Ishiguro.

Los niños tampoco obedecen completamente, rompen las reglas. Eso es parte de la creatividad.

La capacidad de generar ideas de lo que se te enseñó anteriormente, pero que no son totalmente aleatorias, eso es creatividad real. Incluso la simple variedad de “los niños dicen las cosas más extrañas”, no la entendemos. Eso no se le puede enseñar a una IA.

“¿Sabes que en la Enciclopedia de Filosofía de 1967, los niños simplemente no aparecen?” dice Gopnik. Es atractivo pensar que los niños de 4 años podrían convertirse en el secreto para resolver los problemas que estos científicos informáticos no son capaces de resolver.

Una IA que realmente podría aprender

“Imaginemos que podríamos construir una máquina que comienza como un bebé y aprende como un niño”, dijo Josh Tenenbaum, quien dirige el laboratorio de Ciencias Cognitivas Computacionales en MIT y es el jefe de un importante proyecto nuevo de inteligencia artificial llamado MIT Quest for Intelligence.“Si pudiéramos hacer esto, sería la base para la inteligencia artificial que es realmente inteligente, el aprendizaje automático que realmente podría aprender”.