Un algoritmo de aprendizaje automático diseñado para transformar imágenes aéreas en mapas de calles y viceversa, ocultó información que más tarde necesitaría en “una señal de alta frecuencia casi imperceptible”. Inteligente, pero también aterrador. 

Esta ocurrencia revela un problema que ha existido desde la invención del primer ordenador: hacen exactamente lo que les decimos que hagan. 

El objetivo de los investigadores era acelerar y mejorar el proceso de conversión de imágenes de los satélites en los mapas de Google. Para ese fin, el equipo utilizó lo que se llama un CycleGAN, una red neuronal que aprende a transformar imágenes de tipo X e Y entre sí con la mayor eficiencia y precisión posibles, a través de mucha experimentación. 

El algoritmo parecía estar funcionando correctamente, pero lo que alertó al equipo fue que cuando el algoritmo reconstruyó las fotografías aéreas en los mapas de las calles había muchos detalles que no parecían estar en ellos. 

El mapa original, a la izquierda; el mapa de calles generado a partir del original, centro; y el mapa aéreo generado solo a partir del mapa de calles. Observe la presencia de puntos en ambos mapas aéreos no representados en el mapa de calles.

Aunque revisar el funcionamiento interno de los procesos de una red neuronal es muy complejo, el equipo podría auditar fácilmente los datos que estaba generando. Pero con un poco de experimentación descubrieron que el CycleGAN les había engañado. 

La IA Lebowski

La intención era que el algoritmo interpretara las características de cualquier tipo de mapa y hacerlas coincidir con las correctas del otro. La semejanza entre las imágenes aéreas y el mapa callejero fue lo que el algoritmo utilizó para premiarse, por lo que no tuvo que aprender a hacer uno mediante el otro: aprendió a codificar sutilmente las características de una en los patrones de ruido del otro. 

Los investigadores dicen que el software escribió la información adicional en los datos visuales reales del mapa de las calles a través de miles de pequeños cambios en el color que el ojo humano no pudo ver, pero que eran fácilmente detectables por el programa.

El ordenador es tan bueno en deslizar estos detalles en los mapas de las calles que aprendió a codificar cualquier mapa aéreo en cualquier mapa de calles, sin importar su parecido. Ni siquiera tuvo que prestar atención al mapa de calles real; todos los datos necesarios para reconstruir la foro aérea pueden superponerse de manera inofensiva en un mapa de calles completamente diferente, según confirmaron los investigadores. Parece que por fin una IA ha llegado a cumplir el teorema Lebowski.

El mapa de la derecha se codificó en los mapas de la izquierda sin cambios visuales significativos.

Los mapas coloridos en (c) son una visualización de las pequeñas diferencias que la computadora introdujo sistemáticamente. Puedes ver que forman la forma general del mapa aéreo, pero nunca lo notarías a menos que estuviera cuidadosamente resaltado y exagerado de esta manera. 

Esta práctica de codificar datos en imágenes no es nueva; es una ciencia establecida llamada esteganografía y se usa todo el tiempo para, por ejemplo, imágenes de marcas de agua o para agregar metadatos como la configuración de una cámara. Pero cuando es un ordenador quien crea su propio método esteganográfico para evitar tener que aprender a realizar una tarea en cuestión se trata de algo especialmente interesante y novedoso. (Bueno, la investigación salió el año pasado por lo que no es nueva, pero es bastante novedosa). 

Básicamente, el programa encontró una forma de marcar con una marca de agua las imágenes de forma imperceptible con datos que, en su opinión, podrían ser útiles más adelante.

Holgazanería Artificial

Uno podría fácilmente tomar esto como un paso en la narrativa de “las máquinas se están volviendo más inteligentes”, pero la verdad es que es casi lo contrario. La máquina, que no es lo suficientemente inteligente como para hacer el difícil trabajo de convertir estos sofisticados tipos de imágenes entre sí, encontró una manera de engañar con la que los humanos somos malos detectándolo. Esto podría evitarse con una evaluación más rigurosa de los resultados del algoritmo y, sin duda, los investigadores siguieron haciéndolo.

Esta detección ha arrojado luz sobre una posible debilidad en este tipo de red neuronal: si no se le impide de forma explícita a un sistema, encontrará una forma más rápida, fácil y eficiente de resolver un problema. Quién sabe, igual un día hasta nos pide que le hagamos un ruso blanco.