Por norma general, cuando hablamos de IAs suele ser para contar aquellas cosas que han sido capaces de aprender, pero nunca hablamos de lo que olvidan.

Las IAs son capaces de aprender cosas asombrosas, pero tienen un gran problema; que olvidan. Las IAs tienden a olvidar aquello aprendido cuando se les enseña algo nuevo, lo que se conoce como olvido catastrófico. Una vez que se entrena un algoritmo no se puede actualizar más. Y ese es un problema que los científicos están tratando de solucionar, tratando de conseguir que los sistemas de IA sean capaces de aprender sin sobreescribir lo que ya han aprendido.

Los sistemas de IA aprenden a realizar tareas de forma mecánica, no aprenden de forma lógica. Esto supone el principal impedimento para que científicos puedan crear inteligencias artificiales generales (aquella capaz de igualar o exceder el conocimiento humano promedio), con rasgos humanos como la empatía, la imaginación, etc… como las que normalmente vemos en las películas.

La semana pasada se celebró en Praga  Multi-Conference on Human-Level Artificial Intelligence. Durante las conferencias y entrevistas, varios líderes en IA coincidieron en que el problema por el que no veremos a corto plazo una IA a nivel humano es por culpa del olvido catastrófico. Sin embargo, la investigadora principal de DeepMind (Google), aprovechó su presentación para anunciar que su equipo ha comenzado a ‘descifrar el código’.

Desarrollaron una especie de personaje de videojuego controlado por un algoritmo de IA que podía pensar de forma más creativa que un algoritmo típico, siendo capaz de imaginarse qué cosas que encontró en un entorno virtual podían parecerse a otras.

Demostramos un nuevo componente de red neuronal llamado Symbol-Concept Association Network (SCAN), que puede, por primera vez, aprender una jerarquía basada en conceptos visuales de una manera que imita la visión humana y la adquisición de palabras, permitiéndole imaginar conceptos novedosos guiado por las instrucciones del lenguaje.

Este funcionamiento no tiene nada que ver con la imaginación humana. Los humanos podemos crear nuevas imágenes mentales completas, mientras que una sistema IA puede, ahora, imaginar objetos que ya se han visto en nuevas configuraciones o ubicaciones.

“Queremos que una máquina aprenda sentido común de forma segura en su exploración para que no se dañe a sí misma”, dijo Higgins en su discurso en la conferencia organizada por GoodAI.

El sistema fue capaz de, con tan solo cinco ejemplos, aprender qué es, cómo se relaciona con el entorno y también cómo podría verse desde otros ángulos que no ha visto o con diferente iluminación.

En el documento publicado en el blog de DeepMind se explica cómo fue entrenado el algoritmo para detectar una maleta blanca o un sillón, siendo capaz de imaginar cómo se vería ese objeto en un mundo virtual nuevo y ser capaz de reconocerlo cuando lo ve.

Básicamente, el algoritmo puede notar diferencias entre lo que encuentra y lo que ha visto en el pasado. A diferencia del resto de los algoritmos y como los humanos, es capaz de reconocer un objeto aunque lo esté viendo por primera vez desde un ángulo que no conocía y no confundirlo con otro objeto nuevo. Así, el algoritmo no necesita aprender algo nuevo si no que actualiza lo que ya sabe, transfiriéndolo sobre el nuevo entorno.

“Creo que es muy importante llegar a algo cercano a la inteligencia artificial general”, dijo Higgins.

 

Aunque este avance no va a llevarnos todavía al desarrollo de una IAG (Inteligencia Artificial General), sí nos acerca a una IA más creativa, con la posibilidad de aprender de una manera no supervisada, pensar en abstracciones conceptuales como las que utilizamos los humanos y la capacidad de desarrollar una simulación digital de la imaginación.