Conmovidxs por algoritmos: la IA en la cultura mainstream
Leé hasta el final para ingresar a la Iglesia de Jesus IA
Cuando era chico tenía una idea para un cuento de terror: una persona usaba una técnica non-sancta para lograr reconstruir la versión completa de Her Majesty de The Beatles, canción célebre por haber sido publicada con un corte mal hecho en la edición que hizo que le faltara un último segundo de duración.
La realidad es que, al paso que vamos, es una cuestión de tiempo hasta que alguien decida usar una IA para intentar esto mismo. Y hasta me atrevo decir que puede que sean los mismos Paul + Ringo quienes lo hagan, dado el extendido uso de IA que incorporaron para revisionar sus propias obras a lo largo del tiempo.
Hace unos días anunciaron que usando los nuevos avances en IA aplicada a edición de audio, lograron aislar la voz de John Lennon de un demo viejísimo y van a lanzar una canción inédita —ahora sí, posiblemente la última— que quedó en el cajón hace décadas. “No puedo decir nada muy específico en este momento, pero nada se creó artificial o sintéticamente. Es real y somos nosotros tocando. Limpiamos algunas grabaciones existentes en un proceso que lleva unos años”, explicó McCartney.
Me parece interesante que la línea que trazó Sir Paul es la de la creación, insistiendo en que esta tecnología no crea, sino que ayuda o asiste. Como ya he escrito, el tema de la IA en el contexto de la creación de arte encierra un montón de discusiones súper picantes, y las revoluciones a las que gira esta discusión están empezando a acelerarse cada vez más en un contexto de adopción masiva y mainstream de estas técnicas. Me refiero a cosas como…
Si lo sabe, cante
Los “featuring” son una de las piedras fundacionales de la música contemporánea y en estas últimas semanas se dio un fenómeno nuevo que puede ampliar ese concepto. Al menos hasta ahora, hacía falta que las dos personas que colaboraran en una obra se dignaran en hacer su parte.
Pero eso puede cambiar con la irrupción de IAs capaces de replicar las voces de artistas. El hecho de que es posible es, a riesgo de sonar redundante, un hecho. Por lo tanto, frente a esto parece haber dos enfoques al respecto:
La aceptación, con exponentes como la cantante Grimes que hasta insta a sus fans a que hagan canciones usando su voz y creando un modelo de negocio de ganancias compartidas. “Está bueno ser fusionada con una máquina y me gusta la idea de hacer todo el arte open source y matar el copyright”, aseguró la cantante.
La resistencia, con casos como el de “Heart on My Sleeve”, una colaboración entre Drake y The Weeknd que jamás existió (escuchala acá, si no sabías de antemano apuesto a que no te hubieras dado cuenta). Lo llamativo acá es que Spotify y el resto de las apps de música la terminaron dando de baja argumentando copyright… de una canción que técnicamente no es un plagio. ¿O lo es?
Acá aparece súper entrelazada la problemática de la música en tanto arte y en tanto negocio. El tema del copyright en la creación de contenido es bastante grande en sí mismo, pero el punto a lo largo de la historia fue siempre el mismo: las empresas que hacen plata a partir del arte, tienen que ver de qué forma siguen manteniendo todo ese mecanismo en movimiento. Anteayer el mp3, ayer el streaming, hoy la IA: las reglas del consumo van cambiando al ritmo de la tecnología a partir de la cual permea en nuestra vida cotidiana.
Como persona que disfruta especialmente de la música, banco que existan bandas como Gorillaz (dibujos animados con “una historia por detrás”), o inclusive Hatsune Miku (sólo Japón podía concebir un software de música para la creación y emulación vocal, pero que también sea una e-girl, influencer y personalidad en sí misma).
Por eso me intriga ver hacia dónde va esta nueva camada de experimentos: cosas como las mencionadas arriba, o gente como la cantante Holly Herndon que se autoclona a sí misma con AI para hacer dúos con resultados que pueden ser visualmente escalofriantes.
La ventana del alma
Los debates sobre el límite del arte también se corren cada vez más en el rubro más visual y gráfico. Hace unos meses tuvieron lugar los Sony World Photography Awards —premios de fotografía—, y el ganador resultó el alemán Boris Eldagsen, que presentó una obra increíblemente transgresora.
Si venís prestando atención, el giro narrativo no te va a sorprender: esta fotografía fue hecha con IA. “Me anoté para ver si estas instituciones están en condiciones de detectar las imágenes por IA. Resulta que no”, sostuvo Eldagsen en una charla con The Guardian, donde también agregó que va a donar el dinero del premio a caridad y renunciar al galardón, en esperas de que su gesto “ayude a acelerar el debate sobre qué consideramos fotografía y qué no”.
Y ya que hablamos de fotos, también podemos hablar de series y películas. Hace unos días salió Secret Invasion, la nueva serie del conglomerado de superhéroes de Marvel, y la novedad acá es que toda la animación de la intro estuvo hecha con IA. Según explicó en una entrevista con Polygon Ali Selim, productor ejecutivo de la serie, la intención era reflejar la pelea contra los skrulls: una raza de seres alienígenas escondiéndose entre nosotros.
No deja de resultarme increíblemente poético que esta discusión se dé en el contexto de una serie llamada literalmente Invasión Secreta, donde la humanidad está a la merced de un enemigo que se infiltra en la cotidianidad. Ayer doppelgängers, changelings o replicantes: hoy Stable Diffusion y Midjourney.
Method, el estudio encargado de hacer esto, emitió un comunicado en el que afirman que “no hubo pérdidas de trabajo humano a través del uso de estas herramientas. Estábamos buscando un look de otro mundo y extraterrestre, y lo logramos con una herramienta de IA custom que nos asistió en las tareas”.
En lo personal, debo decir que creo en lo que argumentan Method y Marvel: dado el estado actual de la tecnología, veo cuanto menos difícil que esa clase de tareas involucre necesariamente la pérdida de puestos laborales en este rubro (aunque no puedo dejar de mencionar que el titán del entretenimiento tiene su historial de conflictos en este terreno).
Pero en la frase anterior, pongo el énfasis en la palabra necesariamente.
De guiones y actores zombies
La noticia de esta serie de Marvel cayó en un momento especialmente picante en la industria del entretenimiento gringo-hollywoodense.
Capaz sepas que en este momento hay una huelga de guionistas que arrancó el 2 de mayo y no parece mostrar signos de detenerse. Las consecuencias de esto van a ser palpables para todo el mundo occidental que consume habitualmente este contenido, cuando las series dejen de salir con la frecuencia de siempre y algunos programas tengan modificaciones y cambios para intentar prescindir de ese rol.
Hay un buen resumen de las causas en este artículo de Vulture, pero son una serie de reclamos que pasan por lo salarial y un cambio muy grande de las reglas del juego tras la aparición del streaming como gran reemplazo de la televisión. Pero también empezó a aparecer, sin mucha sorpresa, el tema de la IA y los potenciales reemplazos laborales.
En los pliegos presentados por el Gremio de Escritores (WGA, Writers Guild of America), se exije que en los contratos y condiciones quede claramente delimitado que cada escritorx será un ser humano, y que los guiones y demás material literario producto del trabajo no sólo no serán producto de ChatGPT y otros LLM (grandes modelos de lenguaje), sino que el propio trabajo de estos escritores no podrá ser utilizado como parte de un set de entrenamiento futuro.
Lo interesante es que acá también se debate un intento de encontrar cuál es el límite entre el uso y la creación. La WGA dice, por ejemplo, que sí es lícito que los escritores “usen contenido generado por IA en sus investigaciones”, pero el problema está en la escritura en sí.
En lo personal lo siento como un límite demasiado caprichoso o arbitrario, pero lo significativo creo que está no tanto en el límite en sí sino en esta discusión sobre la autonomía de las herramientas y cuál es el valor específico de lo humano. ¿Será el límite la vida misma? Capaz que no.
“Cada vez que me encuentro con los términos ‘perpetuidad’ y ‘conocido o desconocido’ en un contrato, le digo a mi agente que tache esa mierda”. De esta forma se refería el gran Samuel Jackson a un término que también está siendo bastante comentado en asociación a lo que pasó con Marvel: “likeness in perpetuity”, que básicamente refiere a la posibilidad de que a través de la IA, las compañías puedan usar las semblanzas y voces de actores y actrices revividos digitalmente.
Este es uno de esos ejemplos, con la princesa Leia en Star Wars IX: personaje que aparece incluso cuando la actriz Carrie Fisher ya había pasado a mejor vida. Esta idea no es nueva, pero sí puede empezar a aplicarse cada vez más conforme pase el tiempo y más celebridades fallezcan o incluso envejezcan: basta ver casos como el de Robert De Niro en The Irishman o el ya citado Samuel Jackson, quien de hecho develó:
“¿La gente recién ahora se está preocupando por eso? Yo pregunté por eso hace mucho tiempo. La primera vez que me escanearon fue para George Lucas, cuando hice Star Wars: The Phantom Menace (…). Desde que estoy en el universo de Marvel, cada vez que te hacen un cambio de vestuario, te escanean. Desde que hice Captain Marvel e hicieron el Proyecto Lola donde me rejuvenecieron [de-aged1] y todo lo demás, dije ‘bueno, supongo que ahora pueden hacer todo lo que quieran.”
Todxs somos horribles
Hace poco salió la nueva temporada de Black Mirror, y el primer capítulo de la tanda tiene una premisa alucinante. Joan is awful (Joan es horrible) cuenta la historia de una mujer que descubre que una plataforma de streaming —obviamente Netflix acepta las reglas del juego y permite la autoparodia— hizo una serie protagonizada por Salma Hayek a partir de lo que ocurrió ese mismo día en su vida, revelando sus miserias, disimulando sus virtudes y exagerando sus defectos.
Más allá de que es un delirio total y no quiero caer en el terreno del spoiler, lo que me sorprende es hasta qué punto ya la creación de contenido mediante IA está cayendo en el mainstream y como la humanidad es a la vez materia prima y sujeto de estudio.
Esa famosa secuencia de la película Yo, Robot (le tengo cariño por más que digan que es malísima) en la que Will Smith debate con el androide Sonny por la capacidad de crear una sinfonía o una pintura está quedando un tanto anticuada, si la encaramos únicamente por el lado de la técnica, del hacer.
Las IAs pueden hacer de/con nosotros lo que quieran, eso ya está clarísimo. Supongo que el desafío acá está por intentar dilucidar dónde trazamos estos límites desde lo que nos hace humanos, y siempre tener una mirada atenta a cómo estas moldean nuestras vidas: tanto en los momentos de trabajo, donde pueden ser un asistente soñado o un carnero2 algorítmico, como en los de ocio, donde pueden conmovernos con emociones aprendidas de un dataset.
¡Hasta la próxima!
¡Gracias por haber llegado hasta acá! Como siempre, van algunos links de cosas sueltas que me parecen interesantes.
Si bien todo es un poco en el aire no quiero dejar de mencionar esto: Elon Musk y Mark Zuckerberg estarían a punto de organizar una pelea entre ellos (orquestado junto a Dana White, el dueño y referente de la UFC) e incluso se rumorea que habría al menos intentos para organizarla en el Coliseo romano. ¡Qué era para estar vivo!
Hay un grupo de artistas en Estados Unidos que están boicoteando a lugares que cuenten con tecnología de reconocimiento facial; entre sus filas están Tom Morello, Zack de la Rocha, y Boots Riley.
Una organización llamada “The Singularity Group” (el Grupo de la Singularidad, nada raro por acá) se autodefine como una “filantropía tech-driven”. Y para demostrarlo, creó y lanzó al mundo AI Jesus, un canal de Twitch en el que podés interactuar con esta versión —posiblemente un tanto herética— del salvador cristiano.
Me parece interesante la connotación del término en inglés: no es tanto “rejuvenecer” como sería “des-edadificar".
Término político de Argentina para describir a los rompe-huelgas.