Recientemente unos 50 académicos especialistas en IA y robótica de unos 30 países, entre ellos dos españoles; un profesor de la Universitat Pompeu Fabra y el director del Artificial Intelligence Research Institute, han firmado una carta de boicot al Instituto Coreano Avanzado de Ciencia y Tecnología (KAIST) por el miedo a su asociación con la empresa de defensa Hanwha Systems para el desarrollo de armas autónomas.

La carta empieza así:

‘Como investigadores e ingenieros que trabajamos en inteligencia artificial y robótica, estamos muy preocupados por la apertura de un “Centro de Investigación para la Convergencia de Defensa Nacional e Inteligencia Artificial” en KAIST en colaboración con Hanwha Systems, la compañía de armas líder de Corea del Sur.’

No es la primera vez que expertos en IA hablan acerca de los peligros de crear robots autónomos armados que, junto con las IA’s más avanzadas, un mal uso de ellas y la no supervisión humana podrían provocar horribles situaciones.

En agosto de 2016, 100 líderes del campo de la robótica, entre ellos Elon Musk, firmaron una carta abierta que alentaba a las Naciones Unidas hacia la prevención de una carrera armamentista global de armas autónomas letales.

El centro de investigación para la Convergencia de la Defensa Nacional y la Inteligencia Artificial de KAIST,  inaugurado el pasado 20 de febrero, se creó para “proporcionar una base sólida para el desarrollo de la tecnología de defensa nacional”.

Para que conozcas un poco más Hanwha, y no te dejes llevar por las fotos de niños felices que aparecen en su web, se trata de uno de los mayores fabricantes de armas de Corea del Sur y fabricante de bombas de racimo, prohibidas en 120 países en virtud de un tratado internacional.

Sung-Chul Shin, presidente de KAIST, dijo que le entristecía el boicot que estaban recibiendo. Además, publicó una declaración oficial en prensa donde negaba las afirmaciones de que la institución está trabajando en el desarrollo de ‘robots asesinos’.

“Como institución académica, valoramos los derechos humanos y los estándares éticos en un alto grado”. “Reafirmo una vez más que KAIST no realizará actividades de investigación contrarias a la dignidad humana, incluidas las armas autónomas que carecen de un control humano significativo”, dijo.

“Este centro de investigación en KAIST, que se abrió en colaboración con Hanwha Systems, no tiene la intención de desarrollar ningún sistema letal de armas autónomo y las actividades de investigación no se dirigen a ataques individuales”

En la carta abierta, los especialistas expresan su ‘gran preocupación’ por esta unión que podría ‘acelerar la carrera  armamentística’ centrada en el desarrollo de armas basadas en IA. Además, no confían en este acuerdo, ya que supone una extraña combinación.

Toby Walsh, profesor de la Universidad de Nueva Gales del Sur y organizador del boicot comentó a The Guardian:

“Esta es una universidad muy respetada que se asocia con un socio éticamente dudoso que continúa violando las normas internacionales”, continuó.

Hace poco más de un año, la Comisión de Asuntos Jurídicos del Parlamento Europeo, le pidió a la cámara de la Unión Europea que desarrollara ciertas normas éticas, legales y de seguridad que regularan los grandes avances logrados en el campo de la robótica y la IA.

Este boicot se produce una semana antes de la celebración de una reunión de la ONU en Ginebra, a la que se espera que asistan más de 80 países. En ella se discutirá sobre las armas autónomas y la amenaza que representan para la seguridad internacional. Así que la carta llega en un muy buen momento. Son ya más de 90 países los que han reconocido la necesidad de tomar el control humano sobre las armas autónomas y 22 países han pedido la prohibición total de los ‘robots asesinos‘, según la campaña Stop Killer Robots.

Hasta una de las mentes más brillantes del campo de la ciencia, Stephen Hawking, avisó del peligro del desarrollo sin control de la IA y la combinación de esta con las armas.

“Las computadoras pueden, en teoría, emular la inteligencia humana y superarla”, dijo Hawking el año pasado. “AI podría ser el peor evento en la historia de nuestra civilización. Trae peligros, como poderosas armas autónomas, o nuevas formas para que unos pocos opriman a los muchos “.