OpenAI: ¿cómo se ven de acá al futuro los creadores de ChatGPT?
Leé hasta el final para zambullirte en un análisis del estilo del arte IA
“Esta sociedad burguesa moderna, que ha hecho surgir tan potentes medios de producción y de cambio, se asemeja al mago que ya no es capaz de dominar las potencias infernales que ha desencadenado con sus conjuros.”
Karl Marx, “El Manifiesto Comunista” (1848)
Hace unos días, Sam Altman —el CEO de OpenAI, empresa responsable de ChatGPT— publicó en el blog oficial de la empresa un artículo en el que deja en claro cuál es el lugar que él considera que ocupa su compañía en medio de esta nueva revolución industrial que estamos atravesando en tiempo real.
¿El lugar? La compañía que dio el primer paso hacia la singularidad, también llamada Inteligencia Artificial General (AGI): dicho en los términos más sencillos, la IA que sea posta inteligente.
Como pasa con muchos de estos conceptos, es más fácil entender qué es la AGI a partir de aquello que no es. En la bibliografía especializada, se dice que la IA que tenemos hoy en día al alcance tiene la categoría de débil o estrecha, porque está programada para hacer una determinada tarea (o series de tareas) y no pueden salirse de ello.
Mirando con atención, incluso los modelos más maravillosamente asombrosos como ChatGPT y el resto de los grandes modelos de lenguaje, no pueden hacer más que aquello que fueron programados para hacer: reproducir texto, imágenes, o lo que sea que sean los outputs de los modelos en cuestión.
En algún punto, diría que la AGI es un concepto utópico: un objetivo general hacia el cual se orientan los desarrollos más potentes y elefantiásticos de la actualidad, pero que es una meta tan a largo plazo (todavía) que para empezar hasta está en duda que sea posible. La idea de fondo es que existen ciertos aspectos, como la comprensión, la cognición profunda, o inclusive el deseo y el querer, que hacen a lo inherentemente humano, es decir, a algo que no es sintético.
Con esto dicho, me pareció interesante primero hacer un breve punteo de los temas que trata Altman en su editorial, y luego aportar mi punto de vista al respecto.
La AI es de Al Infinito (y más allá)
“Nuestra misión es asegurarnos de que la AGI —sistemas que generalmente son más inteligentes que los seres humanos— beneficien a toda la humanidad”, plantea Altman en la primera línea de su artículo llamado “Planificando para la AGI y más allá”.
Según el CEO, los principios que rigen los desarrollos de la empresa son:
Hacer que la AGI sea un amplificador de la humanidad, maximizando lo bueno y reduciendo lo malo.
Lograr que los beneficios puedan ser distribuidos igualmente para toda la humanidad.
Dado que lo que a veces en teoría suena bien en la práctica arroja resultados extraños, tienen el deber de aprender y adaptarse continuamente, desplegando versiones mucho menos poderosas de las tecnologías a disposición, para minimizar los escenarios de “sólo una chance para hacerlo bien”.
Altman cree que una transición gradual hacia un mundo con IA será mucho mejor que una transición repentina, porque permite que la sociedad y la IA co-evolucionen, a través de una retroalimentación que permita acelerar los tiempos de aprendizaje.
“Las decisiones más óptimas dependerán del camino que la tecnología tome, y como cualquier campo nuevo, la mayoría de las predicciones de los expertos estuvieron mal. Esto hace que planificar en el vacío sea muy difícil”, explica Altman, y agrega que la expansión de su producto los llevó a reformar su estructura no sólo tecnológica sino de negocio, pasando a ser una organización sin fines de lucro.
Con esto en mente, a corto plazo, OpenAI planea trabajar en:
El desarrollo de “límites extremadamente amplios en los cuales usar la IA”, brindándole a lxs usuarixs la posibilidad de customizar y readaptar (fine-tunear en la jerga) los modelos dentro de un mínimo criterio básico.
Agregado a eso, incorporarán la posibilidad de cambiar el comportamiento de la IA para que se ajuste más a los valores de la persona que los está usando.
En cuanto al negocio, al ser una empresa sin fines de lucro:
Se comprometen a ayudar a otras organizaciones para avanzar de forma segura en el desarrollo de la AGI y no que sea una mera competencia de velocidad sin razón de ser,
Pusieron un límite al retorno de inversores (o sea, los montos que los accionistas pueden llevarse) para que no desfinancien líneas críticas de investigación (que suelen ser las más orientadas al bien público),
Vienen hablando de aportar y sponsorear experimentos para un salario básico universal apoyado en IA.
No agrega mucho más en el apartado de su visión a largo plazo, pero sí sintetiza su punto de vista sobre los objetivos generales:
“Transicionar exitosamente hacia un mundo con superinteligencia es quizás el proyecto más importante —y esperanzador y aterrador— de la historia humana. El éxito está lejos de estar garantizado, y esta apuesta (que tendrá resultados infinitamente negativos o infinitamente positivos) con suerte nos podrá unir a todos.1”
Desarrollando lo imprevisto
“El camino al cielo está empedrado de malas intenciones. Fausto anhelaba explotar las fuentes de la creatividad; ahora, en cambio, se encuentra cara a cara con las fuerzas de la destrucción. Las paradojas son todavía más profundas: no podrá crear nada a menos que esté dispuesto a permitirlo todo, a aceptar el hecho de que todo lo que se ha creado hasta ahora —y desde luego todo lo que él podría crear en el futuro— debe ser destruido para empedrar el camino de otras creaciones. Ésta es la dialéctica que el hombre moderno debe asumir para avanzar y vivir; y es la dialéctica que pronto envolverá y moverá a la economía, el Estado y la sociedad modernos como un todo.”
Marshall Berman, “Todo lo sólido se desvanece en el aire” (1982)
En este clásico de la sociología de la cultura, el autor toma el Fausto de Goethe como metáfora de la modernidad, a través de la analogía con los procesos de sueño, amor y desarrollo que atraviesa el personaje, quien hace un trato con Mefistófeles para lograr una libertad y un poder completo.
La cita de Marx2 del principio ilustra el mismo punto pero desde el origen, desde el momento en que nuestra sociedad empezó a adquirir la forma que tiene hoy en día.
Porque en ese entonces apareció una idea de fondo, un mandamiento sagrado que a veces tiene matices muy sutiles, pero cuya raíz sigue siendo un eje rector al día de hoy: siempre vas a querer MÁS desarrollos, porque te van a llevar hacia un futuro que, al menos idealmente, siempre es “bueno” o “mejor” (y con mucha suerte, capaz que alguien dice “feliz”).
Si escuchaste el podcast, sabrás que en los capítulos me gusta incorporar dos noticias sobre el uso de IA, partiendo de la idea de que la tecnología es simultáneamente nuestra salvación y nuestra condena. No una o la otra: las dos a la vez.
Aquello que simplificando un montón podríamos llamar el desarrollo industrial capitalista hizo cosas sorprendentes (como duplicar nuestra longevidad, por poner un ejemplo pavo pero concreto), pero también desató cosas inesperadas, totalmente imprevistas, que eran absolutamente imposibles de prever.
Este es exactamente mi problema con OpenAI, pero también con Twitter, con Meta, con Netflix y el resto de las empresas que lanzan una tecnología al mercado y “después vemos qué pasa”, sólo para no quedar atrás en una carrera por ocupar un lugar en el mercado.
Cabe aclarar que no me refiero a cualquier página, app o servicio, sino a esta clase de empresas con una valuación billonaria que tienen la capacidad de alterar los mismísimos hilos del inmenso tapiz que representa el tejido social.
Y también vale la pena agregar que realmente considero que el desarrollo científico-tecnológico es lo que puede sacarnos del mismo barro en el que nos metió, pero para eso hay que tener las metas un poco más claras, dejar la sarasa y ser mucho más concreto.
Recuerdo cuando recién empecé a meterme en el mundo de la ciencia de datos e hice mi primer curso de Deep Learning en el lejano febrero de 2019, y en aquel entonces, en el aula se hablaba de GPT-2 con un temor casi reverencial.
Estamos hablando de una versión antecesora de lo que tenemos hoy, que pertenece a la era en la que el-cuanto-menos-polémico-pero-para-mí-bastante-nefasto de Elon Musk estaba en el board de OpenAI, y en aquel entonces, la compañía tenía miedo de largarlo al mundo por lo que podría hacer.
Lo que me pasa con la nota de Altman es que no puedo evitar preguntarme: ¿este era el “desarrollo gradual”? ¿Ese que lanzó el producto de mayor crecimiento de la historia —100 millones de usuarios en dos meses— pulverizando el récord de TikTok que lo hizo en nueve? ¿Qué cambió en el mundo desde 2019 a hoy que lo hace un lugar más sano, cuerdo y estable para recibir un producto a escala mega masiva de esta magnitud?
Altman blanquea que no hay manera de prever qué es lo que puede pasar con esto, y le concedo la honestidad. Pero justamente, cuando vas a las metas que se pone, ya desde el mismísimo inicio de la nota, la primera frase me dispara preguntas incontestables.
¡Y vamos con una catarata de ellas!
Cuando habla de sistemas “más inteligentes que humanos”, ¿en términos de qué son más inteligentes, si ya esta altura sabemos que hay varias inteligencias (y que de hecho y contra todo criterio intuitivo, ChatGPT es bastante mala en la inteligencia lógica)?
¿Cómo se define a LA HUMANIDAD a la que se va a beneficiar? ¿Como va a haber algún desarrollo que sea universal y objetivamente bueno, cuando afuera de las oficinas del Pioneer Building en San Francisco —sede física de OpenAI— esa misma humanidad usa la IA como herramienta en conflictos que no parecen estar ni cerca de resolverse?
Que yo sepa (¡y por favor si estoy equivocado hacémelo saber!) al día de hoy seguimos sin saber con exactitud con qué datos entrenaron las iteraciones de GPT. No pido que digan la configuración exacta y al detalle del modelo porque entiendo que podría ser revelar la fórmula de la Coca Cola, pero si de verdad quieren asegurar la justicia y la transparencia, hacerse responsables y garantizar la trazabilidad científica de los datos y que haya auditorías públicas de ciertos procesos sería un buen inicio.
Hablar del lanzamiento de los grandes modelos de lenguaje (LLM) y referirse a los resultados de su implementación y adopción masiva en términos de “una apuesta” me hizo correr un escalofrío por la espalda y para mí evidencia que las reuniones de desarrollo de producto se hacen en una burbuja que flota en un termo contenido en un tupper.
Entiendo que es un post de un blog, pero a esta altura, leer que se refieren a los objetivos de estas tecnologías como “un amplificador de la humanidad maximizando lo bueno y minimizando lo malo” me resulta inaceptablemente vago.
Las investigadoras Catherine D’Ignazio y Lauren Klein en su libro Data Feminism (referencia ya mencionada en el primer capítulo del podcast) tienen un término que me parece increíble: Big Dick Data, que por si no entendés inglés, es un juego de palabras fantástico entre el término big data y pija grande.
“Big Dick Data es un término académico que las autoras creamos para denotar proyectos de big data que están caracterizados por fantasías totalizantes de dominación mundial que caracterizamos como patriarcales, cis-masculinistas y totalizantes, realizadas a través de la captura y análisis de datos. Los proyectos de Big Dick Data ignoran el contexto, fetichizan el tamaño e inflan sus capacidades técnicas y científicas”.
Catherine D’Ignazio & Lauren Klein, “Data Feminism” (2020)
Y viendo como mientras tanto ya anuncian cosas como GPT-4 o LLaMa con la promesa de ser cada vez más grandes, más performantes, más MÁS, creo honestamente que el problema se resume en que estamos en presencia de una competencia a escala corporativa y planetaria para ver quién tiene el modelo más grande, ignorando que lo que importa no es el tamaño, sino saber usarlo.
¡Hasta la próxima!
¡Gracias por haber llegado hasta acá! Como siempre vamos con algunos links que te pueden parecer interesantes.
La adquisición de Twitter por parte de Elon Musk y su posterior administración es un asunto tan entretenido como complejo. Este video de Nico Guthmann está bueno para entender un poco más sobre lo que hay detrás del personaje de Elon y toca algunos de los temas que conté en el newsletter de hace unas semanas (aunque pareeeece que todavía no le bajaron el telón a la API pública).
Aparentemente Spotify quiere lanzar un nuevo rediseño de la app que sería una fusión de TikTok, Instagram y YouTube. ¿Es demasiado pedir que dejen las UIs quietas un toque? ¡A lxs viejxs como yo nos da vértigo, no jodan!
Más atrás mencionaba a LLaMa, el LLM de Meta. Sorprendiendo a exactamente cero personas, ya lograron readaptarlo en una implementación de un chatbot racista.
Después de un tiempo de uso de las IAs generativas en imágenes, empezaron a aparecer ciertos patrones comunes. Esto es lo que investigadores empiezan a catalogar como el estilo IA, un estilo bastante distinguible que habla tanto del algoritmo como de lo popular gráficamente hoy. Chequealo acá.
El original en inglés: “Success is far from guaranteed, and the stakes (boundless downside and boundless upside) will hopefully unite us all”.
Si no hacía una cita de Marx en algún momento me revocaban el título de sociólogo.