OpenAI, la compañía sin ánimo de lucro respaldada por Elon Musk, se niega a publicar investigaciones públicamente por temor a un uso indebido

OpenAI es un sistema revolucionario de inteligencia artificial que puede escribir noticias y obras de ficción, apodadas “deepfakes for text” (en referencia a la IA capaz de crear vídeos pornos con celebrities), han dado el paso inusual de no mostrar su investigación públicamente, por temor a un posible mal uso, y es totalmente entendible.

Ya hay muchas noticias falsas que acaban siendo virales en las redes sociales, con esto al mando, nunca podríamos saber qué noticias serian reales o no.

Esta compañía de investigación sin ánimo de lucro respaldada por Elon Musk, Reid Hoffman, Sam Altman y otros, dice que su nuevo modelo de AI, llamado GPT2, es tan bueno y el riesgo de uso puede ser tan malicioso que tienen que permitir más tiempo para discutir las ramificaciones del avance tecnológico por temor a que caiga en las manos equivocadas.

¿Cómo funciona OpenAI?

Este vídeo de The Guardian explica cómo OpenAI es capaz de escribir historias convincentes sin intervención humana.

Se le introdujeron los primeros párrafos de una historia de The Guardian sobre Brexit, y el resultado fue una prosa de periódico creíble, repleta de “citas” de Jeremy Corbyn, menciones de la frontera irlandesa y respuestas del portavoz de la Primera Ministra.

Uno de los párrafos, completamente artificial, dice: “Cuando se le pidió que aclarara los informes, un portavoz de May dijo: ‘La Primera Ministra ha dejado absolutamente en claro que su intención es salir de la UE lo antes posible y que estará bajo su mandato de negociación. Como se confirmó en el discurso de la reina la semana pasada”.

El generador de texto

GPT2 es un generador de texto. Se le pide que escriba oraciones basándose en predicciones de lo que debería venir a continuación. Esto ya lo hemos visto ya con nuestros auto correctores o incluso en nuestros emails, pero este software es tan avanzado que puede crear desde unas pocas palabras, hasta paginas completas.

OpenAI esta empujando los limites de lo que se creía imposible, tanto en términos de calidad de la producción como la de la amplia variedad de usos.

Cuando se usa simplemente para generar texto nuevo, GPT2 es capaz de escribir pasajes plausibles que coinciden con lo que se da en estilo y tema. Vamos que, en pocas palabras, a mí y a muchas personas nos quitarían el puesto de trabajo.

Pero, ¿cómo de bueno es? NECESITAMOS EJEMPLOS

Alimentando el software

Se le dio la primera línea de ‘1984’, de George Orwell. “Fue un día frío brillante en abril, y los relojes dieron las trece”, y el sistema reconoció el tono vago futurista y el estilo novelístico, y continuó con lo siguiente:

“Estaba en mi auto camino a un nuevo trabajo en Seattle. Apreté el gas, puse la llave y lo dejé correr. Acabo de imaginar cómo sería el día. Cien años a partir de ahora. En 2045, fui profesor en alguna escuela en una zona pobre de la China rural. Comencé con la historia china y la historia de la ciencia “.

Vale, yo ya dejo mi trabajo…

La verdad de las verdades

Desde el punto de vista de la investigación, el GPT2 es innovador de dos maneras. Uno es su tamaño, dice Dario Amodei, director de investigación de OpenAI.

Los modelos “eran 12 veces más grandes, y el conjunto de datos era 15 veces más grande y mucho más amplio” que el anterior modelo de IA avanzado. Se formó en un conjunto de datos que contiene aproximadamente 10 millones de artículos, seleccionados al rastrear el sitio de noticias sociales Reddit para enlaces con más de tres votos. La vasta colección de texto pesaba 40 GB, suficiente para almacenar alrededor de 35,000 copias de Moby Dick.

La cantidad de datos en los que se entrenó GPT2 afectó directamente a su calidad, lo que le da un mayor conocimiento de cómo entender el texto escrito.

GPT2 es mucho más general que los modelos de texto anteriores. Sin embargo, esa calidad también ha llevado a OpenAI a ir en contra de su misión de impulsar a AI y mantener el GPT2 a puerta cerrada para el futuro inmediato, mientras evalúa lo que los usuarios malintencionados podrían hacer con él.

“Necesitamos realizar experimentos para descubrir qué pueden y qué no pueden hacer”, dijo Jack Clark, jefe de política de la organización. “Si no puedes anticipar todas las habilidades de un modelo, tienes que empujarlo para ver qué puede hacer. Hay muchas más personas que nosotros que piensan mejor los posibles usos maliciosos”.

El spam y las noticias falsas son otros dos posibles inconvenientes obvios, al igual que la naturaleza no filtrada de la IA. Como está capacitado en Internet, no es difícil alentarlo a generar texto intolerante, teorías de conspiración o cualquier otro contenido.

Al igual que Deepfakes, GPT2 tiene la capacidad de convertirse en una herramienta para construir ficciones aún más difíciles de distinguir de la realidad.