En un día frío, en un edificio de estudios antiguos en el Eastside de Los Ángeles, Natasha Lyonne se sentó frente a un televisor de pantalla grande y jugó con un joystick.
El dispositivo en su mano se parecía mucho a un viejo control de Atari 2600, y mientras lo giraba hacia un lado y luego hacia el otro, aparecían imágenes que se transformaban y derretían en distintas formas de una surrealidad digital; en un momento, el modelo generó una escena a la que llamó “Artpixel Monochromatic Media Shower Fractal 3”.
Lyonne, de vez en cuando, se dirigía con gestos a los dos hombres sentados cerca de ella, quienes en ocasiones tomaban el control. “Regresa al Rothko”, exclamó con su inconfundible acento de Long Island, justo cuando en la pantalla aparecía una imagen al estilo del expresionista abstracto estadounidense, que desaparecía tan rápido como surgía.
Lyonne es cofundadora de Asteria, una startup de entretenimiento con IA del tipo que ha comenzado a aparecer en ambas costas como puntos en un mapa de noticias en una película de invasión alienígena. Estaba sentada en la sede de la empresa, en un edificio histórico que en algún momento fue dirigido por Mabel Normand, colaboradora conflictiva de Charlie Chaplin, dos mujeres complejas y exitosas de Hollywood, separadas por un siglo.
La misión de Lyonne durante la sesión con el joystick era, en su terminología técnica, “solo joder un rato”. Un miembro del equipo había creado el dispositivo para probar la idea de que las imágenes podían generarse no con instrucciones de texto, sino con desplazamientos táctiles. El experimento resultaba revelador. Se trataba de un intento de ver cómo sería el cine cuando el cerebro creativo comienza a fusionarse con la mente de la máquina. “Se siente como debió sentirse el inicio de Pixar”, dijo Lyonne. “Todos están en la fase de Imagineering, muy cielo azul, muy inspirador, todos tratando de descifrar el código”.
A su lado, uno de los dos hombres —su socio en Asteria y pareja sentimental, Bryn Mooser— asintió. “Pero con suerte ya hemos descifrado algunos”, dijo. El segundo hombre, el artista y director independiente C. Craig Patterson, esbozó una sonrisa enigmática.

Ese día, Lyonne y Mooser aún no habían anunciado (aunque ya lo estaban desarrollando) Uncanny Valley, la película con IA que Asteria y su empresa matriz, Moonvalley —una firma de “herramientas éticas de IA” respaldada por CAA— están creando junto con Brit Marling y el pionero de la realidad virtual Jaron Lanier. El proyecto representa uno de los primeros esfuerzos importantes para construir una película completa basada en medios generados por máquinas. Pero la atención mediática que generan estos anuncios opaca todas las formas en las que la IA ya está insertada en nuestro proceso cinematográfico.
Hollywood atraviesa actualmente una insurgencia de la IA, aunque incluso ese sustantivo podría quedarse corto para describir el momento. A pesar de su carácter aún fragmentado, el movimiento empieza a parecer una toma total del poder: una especie de terremoto artístico al estilo Pixar que busca transformar la procedencia de las imágenes, el negocio de la producción y (sin querer exagerar) el propio lenguaje del cine.
El movimiento se construye desde múltiples frentes: desde startups cercanas a Hollywood como Asteria y Runway AI; desde artistas tradicionales curiosos por la IA como los directores James Cameron y Timur Bekmambetov, y figuras como Lyonne y Darren Aronofsky (quien se ha asociado con Google DeepMind); desde ejecutivos de estudios entusiasmados ante la posibilidad de ahorros masivos; desde técnicos de efectos visuales y otros profesionales de áreas técnicas atraídos (aunque con cierta cautela) por el brillo tecnológico; y, por supuesto, desde ejecutivos de empresas como Google y OpenAI, que observan la posibilidad de un Hollywood automatizado con la misma eufórica incredulidad que un vendedor de insulina que acaba de tropezarse con una convención de diabéticos.
Veo 3, Gen-4, Sora y Luma —los nombres de los productos de video generativo en el centro de este movimiento suenan abstractos, casi como imitaciones. ¿Qué pueden hacer estas herramientas?, nos preguntamos, ¿y qué harán que nosotros hagamos? Pero si su marca parece opaca, su objetivo no podría ser más claro: que una máquina cree, con el más mínimo empujón de nuestra parte, el tipo de cine que durante más de un siglo solo pudo existir cuando un grupo de personas se reunía físicamente para construirlo y registrarlo. Solo en los últimos meses, Runway AI ha anunciado acuerdos con EDGLRD de Harmony Korine, Fabula de Pablo Larraín y AMC Networks, además de docenas de estudios y productoras que han estado probando informalmente sus herramientas para explorar su valor y sus límites: una forma encubierta de introducir las máquinas en la casa del relato.
Como respuesta a esta ambición, ha surgido un contramovimiento: una resistencia incómoda ante la idea de sacar la creatividad de las manos humanas. Esta se ha concentrado en portavoces de alto perfil como la actriz y cineasta Justine Bateman y el diseñador Reid Southen, preocupados por el efecto sobre el arte y la humanidad. Su resistencia ha sido reforzada por sindicatos como SAG y WGA, y otros grupos laborales que están alarmados por el impacto en los empleos disponibles. Y, a veces de forma paradójica, incluso por los propios jefes de estudio, que se preguntan, a pesar de todas esas seductoras bolsas de dinero ahorrado, si permitir que un sistema computacional consuma los millones de horas de imágenes en movimiento que ellos crearon para que tome el control de la creación en sí es realmente una buena idea, si eso dará lugar al próximo Pixar o, como parece igualmente posible, al final del que ya existe.
“Siempre nos reunimos en el Atrium a hablar de esto”, dice Peter Docter, director creativo actual de Pixar. “¿Hasta qué punto deberíamos dejar que las máquinas hagan el trabajo?”
***
El cine se basa en la ilusión. Los hermanos Lumière, célebres (aunque quizás de forma apócrifa), asustaron al público de 1896 con La llegada del tren a La Ciotat, haciéndoles creer que un tren realmente iba a irrumpir en la sala. Unos 80 años más tarde, la película To Fly, en formato Imax, ofrecía panorámicas aéreas tan realistas que provocaron vértigo en muchos espectadores. Incluso en 2010, varios asistentes se desmayaron al ver a James Franco cortarse el brazo en el acto final de supervivencia de 127 horas, dirigida por Danny Boyle.
Está claro que los cineastas construyeron todas esas escenas, un hecho que no activa nuestras alarmas éticas ni impide nuestras reacciones biológicas. De hecho, la capacidad del cine para hacernos creer que algo está ocurriendo realmente lo hace aún más digno de nuestra admiración. Cuanto mayor la ilusión, mayor el reconocimiento.
La IA pone a prueba esa teoría hasta sus últimas consecuencias. En cierto sentido, es la ilusión perfecta: tecnología que produce lo próximo que nos dejará boquiabiertos, generando huida o desmayo sin necesidad de cinta adhesiva en el mundo real; simplemente se chasquean los dedos y aparece. Pero la IA también destruye las raíces orgánicas de esa ilusión. El pacto del cine durante aproximadamente 125 años ha sido que aceptamos todos los trucos en pantalla porque sabemos que fueron creados por humanos detrás de cámaras que, ya sea que estén volando la Estrella de la Muerte o Chow Yun-fat y Michelle Yeoh estén peleando en el aire con espadas, aquellos nacidos de madre de carne y hueso, en posesión de un cerebro humano, se reunieron, analizaron un problema y hallaron la solución para ofrecernos el arte que vemos. Lo que no ocurrió en la realidad, requirió de muchas personas para hacerse posible.
Una escena generada por IA, en cambio, ocurre porque alguien pronunció unas palabras mágicas y pequeños trozos de silicio realizaron 80 billones de cálculos por segundo.
“Los humanos siempre lo resolvían”, dice Bateman, quien se ha convertido en una de las activistas más vocales de Hollywood contra la IA. “Esa gran toma al inicio de Sunset Boulevard, cuando se mira desde el fondo de la piscina hacia el cuerpo y los fotógrafos. Es una toma tan imaginativa. Usaron un espejo para lograrla. Si hubieran tenido IA, no habrían recurrido a eso. Y nos habríamos perdido una de las mejores tomas del cine.”

Bateman dice que depender de la IA es explotador porque, en realidad, solo puede hacer sus cálculos basándose en todo lo que los humanos hicieron antes. Eso presenta un evidente desafío ético en términos laborales, ya que ninguno de esos humanos parece que vaya a ser remunerado o acreditado. Pero, según ella, hay un problema aún más profundo: se trata de un dilema existencial, porque implica que el esfuerzo artístico humano tal como lo conocemos, prácticamente desde los jeroglíficos, queda ahora detenido en seco. “Usar IA para una toma”, dice, “es una regurgitación del pasado”.
Baste decir que así no lo ven los insurgentes. Mientras Patterson trastea con una pantalla en el estudio Normand para un cortometraje que está haciendo para Asteria, Mooser observa con aprobación. Los cineastas que exploran la IA ven en esta nueva tecnología una transformación en eficiencia que le otorga a todo el oficio una utilidad renovada, de la misma forma en que el teléfono celular no solo mejoró lo que Alexander Graham Bell había concebido, sino que cambió por completo la naturaleza de la comunicación. “Podemos hacer las cosas más rápido y con más estilo que nunca”, dice Patterson. “Y lo mejor de todo es que aún no sabemos qué puede hacer.”
La semana pasada, Luma AI, la startup detrás de un conjunto de sofisticadas herramientas de video llamadas Dream Machine y Modify, anunció un nuevo laboratorio en Hollywood. El objetivo de la empresa, me dice su CEO Amit Jain, es aumentar la producción de formas que la economía actual nunca permitiría. “¿Por qué haces cinco películas al año cuando deberías hacer 50, deberías hacer 100?”, afirma. Jain reconoce que muchas de esas podrían ser mediocres. Pero ofrece una lógica contundente: tienes muchas más posibilidades de dar un jonrón hacia el jardín izquierdo si tienes 95 turnos al bate adicionales.
Mientras tanto, Asteria ya ha incorporado IA en sus películas. Poco antes de la sesión de experimentación, la empresa presentó el documental Free Leonard Peltier en Sundance. Centrado en el activista nativo americano encarcelado, y que se estrenó solo unos días después de que el presidente Biden le concediera el indulto, el filme busca contar la historia de Peltier desde adentro.
Mientras los participantes y expertos recuerdan lo que ocurrió aquel día, observamos desde la perspectiva de Peltier mientras intenta huir de la reserva y eludir a los agentes del FBI. Estas recreaciones nos resultan ya familiares; documentalistas desde Errol Morris en adelante las han utilizado durante décadas ante la falta de material de archivo. Solo que esto no es una recreación. Nuestros ojos entrenados en el documental no se detienen a considerar una tercera posibilidad: que capturar ese momento singular de Peltier corriendo no implicó ir a un lugar en Dakota del Norte o del Sur, situarse en un momento y espacio específicos e imaginar lo que debió estar sintiendo. En su lugar, se le dijo a una computadora que hiciera la imaginación por nosotros.
Para quienes practican esta forma, eso es una virtud. Incluso el cineasta más hábil en la era del iPhone dirá que hay escenas que simplemente son demasiado difíciles de capturar, que el cine está limitado por la realidad. El cine generado con IA promete eliminar todo eso: reducir a cero la barrera entre querer una toma y lograrla.
De hecho, ver estas herramientas en acción —un paisaje urbano completo surgiendo de la tierra, personas bailando en un campo con coreografías intrincadas— hace que la mente, si no estalle, al menos experimente un viento muy caliente. Las herramientas de texto a video evocan sensaciones divinas, y también un leve sentimiento de trampa, como la primera vez que entraste a ChatGPT y le pediste que escribiera una nota de agradecimiento desde cero, solo que ahora multiplicado por el poder de Spielberg. Algo que antes habría requerido docenas de personas y horas de trabajo simplemente apareció frente a mí, y me salí con la mía.
“Lo que esta tecnología te permite hacer es tomar cualquier cosa que esté dentro de tu cerebro y darle vida de inmediato”, me dijo Alon Soran, director comercial de EDGLRD, cuando se anunció el acuerdo con Runway. EDGLRD ha utilizado IA en varias de sus producciones, incluyendo una película de medios híbridos llamada Baby Invasion que se estrenó en el Festival de Cine de Venecia del año pasado y una campaña para la reciente colección otoño-invierno de Valentino. “Por primera vez, nuestra capacidad de crear cosas va al mismo ritmo que nuestra capacidad de pensarlas”.
Esa es una idea poderosa. Y una con potencial para muchas consecuencias no deseadas.
***
En junio, Disney y Universal presentaron una demanda por infracción de derechos de autor contra la empresa de generación de imágenes Midjourney. Alegando un “pozo sin fondo de plagio”, las compañías buscan detener a la startup, y a sus competidores mucho más grandes y mejor financiados, de replicar todas las películas que han hecho para alimentar sus modelos.
“Si un suscriptor de Midjourney ingresa un simple comando de texto solicitando una imagen del personaje Darth Vader en un entorno o realizando una acción específica, Midjourney accede generando y mostrando una imagen de alta calidad, descargable, que presenta al personaje Darth Vader con derechos de autor de Disney”, dice la demanda.
Los ejecutivos de estudio se encuentran en una extraña falla tectónica dentro de la insurgencia de la IA, entusiasmados con el dinero de producción que pueden ahorrar en un clima cada vez más hostil para sus productos, pero aterrorizados de que los consumidores busquen ahorrar su propio dinero y simplemente hagan ellos mismos el contenido.

Los beneficios presupuestarios son, sin duda, reales. Los partidarios de la insurgencia de la IA suelen señalar que los cineastas independientes ahora podrán operar al nivel de un estudio, mientras que los cineastas promedio de estudios podrán actuar como James Cameron. ¿Y el propio Cameron? Estaría libre de tener que convencer a un estudio para que gaste 300 millones de dólares en su última visión. Quizá una razón por la que ha pasado de comparar la IA con una carrera armamentista nuclear a elogiar la tecnología. “Si queremos seguir viendo el tipo de películas que siempre me han encantado… películas con muchos efectos, mucho CGI, tenemos que descubrir cómo reducir el costo de eso a la mitad”, dijo recientemente en un pódcast de Meta. “Esa es mi visión de la IA.”
Pero a pesar de todo el dinero que la IA podría ahorrarles, aún no está nada claro si los miembros del establishment de los estudios se dan cuenta de que la posibilidad de automatizar contenido al menos cambiará drásticamente su modelo de negocio (¿para qué arriesgarse a generar nuevo material cuando puedes dejar que la gente juegue con lo que ya tienes?) y, en el peor de los casos, eliminará por completo la necesidad de producción y distribución a gran escala.
Los estudios están reaccionando como suelen reaccionar cuando una gran cantidad de su contenido termina en lugares no autorizados: están demandando.
Recientemente, jueces fallaron a favor de empresas de Silicon Valley en demandas por infracción de derechos de autor presentadas por grupos de autores en San Francisco, una ciudad favorable a la tecnología. Pero la demanda de Disney y Universal contra Midjourney, crucialmente, se presentó en Los Ángeles, donde los tribunales son más proclives a simpatizar con Hollywood. La forma en que el juez vea el caso podría determinar el futuro del modelo tradicional de producción profesional en la era de la IA.
Paul Thomas Anderson y Wes Anderson siempre serán Paul Thomas Anderson y Wes Anderson, por supuesto, y es muy poco probable que su tipo de cine hecho a medida cambie. Pero la era de la IA podría no producir una nueva generación andersoniana si no hay un ecosistema de estudios (o un mercado comercial) que respalde ese tipo de cine guiado por humanos. Dado su bajo costo, los medios automatizados no necesitan igualar el trabajo dirigido por personas: solo necesitan ser lo suficientemente buenos. Una pista de esa nueva lógica matemática la ofreció este verano la “provocación” con IA The Velvet Sundown y el éxito de la banda en Spotify, ‘Dust on the Wind’. Con sus sonidos genéricos aceptables y su millón de oyentes mensuales, la canción ofrece una visión de un mundo creativo por venir, donde el riesgo-beneficio del trabajo centrado en humanos rara vez justifica la apuesta.
Y aunque la empresa de IA de Aronofsky, Primordial Soup, sin duda hará un uso interesante de los modelos lingüísticos (su lema no oficial es “haz sopa, no porquería”), la mayoría de las personas que están produciendo películas con IA no serán Darren Aronofsky. El hecho de que Bon Iver use autotune no significa que su efecto artístico neto sea positivo.
En cambio, lo que podría generar la insurgencia de la IA es otro tipo de creación. Existe una idea radical según la cual el cine con IA ayudará al mundo cinematográfico no solo a crear escenas, sino personas: “humanos digitales” que se verán y moverán como actores reales sin las molestas preocupaciones de un mal día o los pagos por derechos residuales. Si eso ocurriera, nuestras películas cambiarían de formas impensables. Humphrey Bogart podría actuar junto a Selena Gomez. Nuevos actores de los que nunca hemos oído hablar, porque no son personas en absoluto, podrían ganar premios de la Academia.
Pero no hace falta llegar a un escenario tan fantasioso para ver cómo la IA cambiará la gramática del cine. Una evolución ya se presentó esta primavera con The Electric State, una película de los hermanos Russo para Netflix protagonizada por Chris Pratt y Millie Bobby Brown, repleta de robots y criaturas no humanas.
Aunque la película no entusiasmó a la crítica, con sus efectos especiales repletos de seres futuristas salvajes y robots que se expresan de maneras igualmente extravagantes, ofreció una pista de cómo podría verse el lenguaje cinematográfico en la era de la IA. De hecho, algunos de los efectos con robots fueron realizados por Wonder Dynamics, una división de West Hollywood de la empresa de software de diseño e ingeniería con IA Autodesk.
Una de las innovaciones de Wonder Dynamics es que, en lugar de insertar creaciones preexistentes, una especie de IA 1.0, permite un nivel de manipulación dentro de la escena. “Nuestra gran convicción es que todo lo que construyamos debe ser editable y controlable”, me dice el cofundador de la empresa, el experto en efectos especiales Nikola Todorovic.
Si estas innovaciones se popularizan, podríamos terminar teniendo géneros completamente nuevos posibilitados por la inteligencia artificial. En lugar de que los humanos digitales reemplacen a los actores en los géneros existentes, el cine podría verse dominado por historias que se prestan a estas criaturas de IA más baratas, manipulables y no elegibles para el Sindicato. Tales creaciones eludirían astutamente las restricciones del SAG; ¿qué importa si un actor necesita dar su consentimiento si en primer lugar no estás usando actores?
La capacidad de manipular tan fácilmente los movimientos e incluso las emociones de los personajes dentro de una escena hará, simplemente, que veamos muchos más de ellos. A pesar de su incoherencia estridente, The Electric State podría, con el tiempo, considerarse menos como una ocurrencia tardía hecha para el streaming que como la versión prototipo de una nueva forma de concebir el cine que simplemente aún no ha resuelto sus defectos, del mismo modo en que Tron, la original, ofreció un vistazo profético de cómo se vería eventualmente la era de los efectos en Hollywood.
¿Y en cuanto a que la IA ahorre dinero? Aún no. The Electric State costó, según informes, más de 300 millones de dólares.
***
Una tarde reciente en el barrio neoyorquino de Chelsea, Cristóbal Valenzuela, cofundador de Runway AI, se sentó en la sala de conferencias de su empresa y habló sobre una lata de Coca-Cola voladora.
El día anterior, un director notable se había sentado en la misma mesa y, según Valenzuela, quedó asombrado con un modelo de IA que, con nada más que una indicación textual, hizo que la bebida se elevara y saliera volando de la mesa en una recreación en pantalla. Es el tipo de truco cinematográfico que los modelos actuales apenas sudan en ejecutar, pero que aún puede deslumbrar a personas que han dedicado su vida a afrontar las dificultades de hacer que los objetos hagan cosas que normalmente no hacen.
“Cuando los artistas vienen y ven lo que es posible, se emocionan al instante”, dice Valenzuela. “Y nosotros nos emocionamos al instante de ver cómo podemos ayudarlos”. La historia tiene un doble propósito. Primero, sugiere que Runway AI es, como les gusta decir a sus ejecutivos, solo una “herramienta” para asistir a grandes artistas, no muy diferente ni más deshumanizante que proveer a Picasso de un nuevo juego de pinceles. Y segundo, sugiere que grandes directores realmente están acudiendo para conocerlo.
Aunque casi todo lo que hace Runway ocurre dentro de una computadora, Valenzuela y sus socios se esmeraron en decorar su oficina con toques cálidos de creatividad analógica. Una cámara Polaroid vintage se encontraba en uno de los estantes, un conjunto de libros sobre cómo conectar con la musa interior reposaba en otro. En una esquina incluso se había construido un set para una historia animada de ciencia ficción y detectives que la empresa estaba produciendo. “No era necesario, pero simplemente nos ayudó a inspirarnos”, dice Valenzuela.
La escena era un tanto desconcertante. Durante años, los cineastas han diseñado en computadoras para luego hacer una película en un set físico. Ahora, la ecuación se había invertido.
En otra esquina de la oficina, un ingeniero que solía trabajar en Marvel afinaba un modelo para permitir la creación fluida de una persecución de autos, el tipo de escena que implica una cuidadosa continuidad y que puede poner a prueba un código que nunca ha estado dentro de un automóvil. Lo que hacía el ingeniero, como gran parte de lo que hacen las compañías de IA en Hollywood, no estaba destinado a insertarse directamente en una película. Pero estaba perfeccionando un modelo para que alguien, en algún lugar, pudiera hacerlo en algún momento. En la visión de Runway, cuando el próximo William Friedkin quiera emocionarnos, no necesitará que Popeye Doyle comande un LeMans y esquive por poco un cochecito de bebé. Sólo tendrá que usar una máquina que ya conoce una película que alguna vez lo hizo.
Chileno de carácter reflexivo y relajado, Valenzuela fundó Runway junto a otros dos millennials, Alejandro Matamala Ortiz y Anastasis Germanidis, luego de que los tres se conocieran en el innovador programa ITP de la NYU, que cruza tecnología con arte. Entre los tres, Valenzuela es el cinéfilo declarado, el que ha estado tanto tranquilizando a Hollywood como presionando a su equipo para adaptar productos a su industria. Las herramientas de Runway (Act-Two, Gen-4 y Gen-4 References), están diseñadas específicamente para resolver desafíos del cine, como permitir que los personajes se vean iguales de una escena a otra, un gran problema para una máquina con poca memoria, a diferencia de las herramientas de OpenAI. Entre los acuerdos de la empresa está un pacto de alto perfil con Lionsgate, y ha prestado sus herramientas a casi todos los estudios importantes para que las prueben, a veces incluso colocando a un empleado como consultor dentro del estudio para guiarlos.
Semanas después de aquella reunión, la empresa alquiló el Alice Tully Hall del Lincoln Center para un “Festival de Cine con IA”. Valenzuela se paró frente a una multitud que vitoreaba y señaló cómo “millones de personas están haciendo miles de millones de videos usando herramientas con las que solo soñábamos”, tras lo cual se proyectaron para el público diez películas decididamente oníricas, casi experimentales (los diálogos de personajes siguen siendo difíciles en las películas hechas con IA). Aunque poseían sin duda una visión artística, ninguna de las películas reconocía todo el trabajo previo de los artistas del que se habían nutrido ni, más importante aún, el trabajo futuro que podían llegar a reemplazar.
Le pregunté a Valenzuela por qué no sentía que todos estos modelos estuvieran interfiriendo con lo que hace que el cine sea humano. “Decían lo mismo de Industrial Light & Magic: ‘es demasiada tecnología, no es arte’”, dijo, y luego añadió con un tono amable pero incisivo: “Imagínate si les hubiéramos hecho caso”.
Quien sin duda no está escuchando es Bekmambetov, el autor kazajo de género detrás de Wanted y Abraham Lincoln: Vampire Hunter. Bekmambetov ha estado impulsando una serie de películas que denomina screenlife, que busca capturar nuestro momento digital filmando enteramente dentro de pantallas, y como parte de ello está adentrándose en un futuro con IA, tanto temáticamente como en lo técnico. Una nueva película en la que está trabajando actualmente, una biografía titulada Luria, será generada en gran parte por IA. Quizás el SAG quiera bajar las armas: Bekmambetov está usando las tendencias de la IA en su contra, haciendo que los modelos generen visiones falsas como parte de la investigación del protagonista sobre neuroplasticidad, la ciencia que estudia los cambios morfológicos del cerebro.
“Es un truco”, dice Bekmambetov. “Comencé este proyecto hace siete años, pero no pude realizarlo: era demasiado caro. Son 90 minutos de efectos visuales mostrando alucinaciones. Ahora todos los modelos de IA existentes crean alucinaciones”.

El director cree que cualquier cineasta que no use la IA de una manera inusual terminará decepcionado; la tecnología piensa de forma demasiado pragmática para el arte.
“La gente seguirá volteando mesas en el templo”, dice Bekmambetov, cuya próxima película de ciencia ficción para Amazon/MGM, Mercy, presenta a un muy humano Chris Pratt enfrentándose a una Rebecca Ferguson que parece completamente IA. “La máquina intenta simplificar buscando un resultado… una solución directa. Pero los humanos se preguntan qué hay detrás de la esquina”. Esa diferencia, afirma, es la que separa al arte de los infomerciales, y por eso la IA tendrá dificultades con lo primero.
Tal fenómeno podría verse en algunos intentos cinematográficos de OpenAI. La empresa dirigida por Sam Altman ha tenido una relación inestable con los cineastas, aparentemente consciente de que, a diferencia de Runway, no es una entidad centrada en la creatividad, y sus plataformas probablemente sean usadas por desarrolladores que construyen asistentes de IA más que por productos que te ayuden a hacer cosplay de Scorsese. Además, algunos cineastas desconfían abiertamente de trabajar con una empresa que ven como una amenaza directa a sus empleos. También veremos cómo se siente Hollywood respecto a Altman cuando Amazon lance su drama sobre OpenAI, Artificial, que parece comenzará a rodarse este verano con dirección de Luca Guadagnino y Andrew Garfield interpretando al provocador magnate.
Aun así, representantes de OpenAI han rondado festivales de cine y hecho acercamientos a cineastas y estudios, mientras que Sora, la herramienta de video de la compañía, ha sido utilizada en varias películas de artistas interesantes. Una de ellas es Air Head, un microcorto del colectivo pop de Toronto, shy kids.
Air Head cuenta la historia de un hombre con un globo por cabeza que mantiene una actitud positiva mientras flota por la vida. La pieza con voz en off aprovecha el poder onírico de Sora, primero por lo insólito de su historia y luego, cuando la cabeza flota por el mundo, incorporando grandes escenarios globales que una herramienta de texto a video puede generar con facilidad.
Pero Air Head también muestra, de manera involuntaria, los problemas de dejar que las máquinas lideren el proceso creativo, con una película que exuda una falta de alma que parece adecuada para imágenes que no provienen de una mente humana.
“La distopía se acerca, pero qué lindas son las luces de neón”, escribió un comentarista en YouTube.
“Guau, esto parece un comercial elegante para una cooperativa de crédito de nivel medio”, escribió otro.
***
Automatizar el cine que antes era hecho por humanos implica un cambio en dos frentes: se elimina al humano del proceso y se elimina la humanidad del resultado.
La primera consecuencia trae consigo una serie de desafíos laborales. El desplazamiento de empleos, lejos de ser un temor lejano, es un peligro inminente, articulado desde dentro de Hollywood de manera particularmente persuasiva por Reid Southen. Artista conceptual e ilustrador cinematográfico que ha trabajado en franquicias como Matrix y Los Juegos del Hambre, Southen ha sido fundamental para lograr que los trabajadores de base de Hollywood comprendan el poder de esta tecnología para automatizar empleos humanos. Afirma que sus ingresos se han reducido aproximadamente a la mitad en los últimos dos años, no porque los estudios estén recurriendo a otros ilustradores, sino porque no están recurriendo a ningún ilustrador en absoluto, dependiendo en su lugar de programas de IA como Stable Diffusion, Midjourney y DALL·E de OpenAI para hacer el trabajo.
El video aún es defectuoso y reciente, pero las imágenes fijas son algo que la IA ha estado haciendo desde hace algunos años, y Southen ha argumentado con vehemencia que lo que le ha sucedido a él está a punto de sucederle a muchas más personas. “Si pueden saquear y explotar el trabajo de todos para reemplazarte, destruirán industrias creativas enteras”, me dijo en mayo. “Pueden ganar dinero a corto plazo”, añade sobre los estudios, “pero a largo plazo eso los destruirá”.
Incluso el carácter defectuoso de los modelos —una objeción común entre quienes dicen que las máquinas “nunca podrán reemplazar” a los humanos en el trabajo creativo— no será suficiente, según él. “Van a lanzar un montón de cosas a la pared y solo traerán a un artista cuando realmente sea absolutamente necesario”, afirma.
(Es importante señalar que la IA aún no ha infiltrado el desarrollo de guiones porque el contrato post-huelga del WGA impide que los estudios hagan exactamente lo que describe Southen. Lo que traerá el próximo contrato, que vence en menos de 10 meses, no está claro. Los mismos escritores, según una encuesta informal, realmente no están usando la IA como atajo, salvo en ocasiones para resumir textos. La culpa por los guiones mediocres, por ahora, sigue recayendo en los humanos).

Quienes trabajan en este campo ven la IA como un beneficio para el trabajo humano. “Cuando la pantalla verde llegó a la industria, eliminó 1.500 empleos pero creó cientos de miles más porque ahora podías hacer estas películas a gran escala que antes eran imposibles”, me dice Patterson, el director de Asteria. “Veo la IA generativa de la misma manera. Es una oportunidad para que los artistas lleguen y construyan”.
Pero la analogía ignora una diferencia clave entre las pantallas verdes y los modelos de lenguaje. Las primeras inflaron las producciones hasta convertirlas en grandes éxitos; los segundos probablemente trasladarán muchas producciones del set a la sala de control. ¿Por qué contratar a un equipo enorme y costoso para filmar en locaciones durante semanas cuando cinco personas frente a un portátil pueden generar las mismas escenas mediante indicaciones?
Estas realidades no han pasado desapercibidas para quienes lideran la resistencia. “Quiero decir, puedes hacer una película en un iPad y crear personajes de Hollywood”, dice Sean O’Brien, el presidente del sindicato Teamsters, quien se ha convertido en una de las voces principales de oposición. En lugar de apoyarse en la IA desde lo artístico, afirma, la industria necesita encabezar los esfuerzos para neutralizarla. Todos aquellos que se preocupan por el trabajo humano deben “estar vigilantes para asegurarse de que existan protecciones contra la IA, usarla solo cuando sea necesario y, donde no sea necesaria, establecer que no puede utilizarse”, dice a The Hollywood Reporter.
Pero a pesar de todas las minas terrestres en el tema laboral, la segunda pregunta “¿qué hará la IA con el resultado final?”, podría ser aún más significativa. Las tarifas por licencias, si se incluyen en los acuerdos, resolverán desafíos legales y, al menos, restaurarán algo de equidad y compensación en lo que actualmente es un salvaje oeste de explotación. Pero no resolverán, y de hecho podrían empeorar, el problema más artístico de lo que significa que gran parte de nuestro arte sea una regurgitación estilo Bateman del pasado. Decir que se les pagará a las personas por el reinicio no hace que sea menos reinicio.
Y al menos los reinicios tradicionales implican a artistas tratando de aportar su propia visión. Lo que la IA amenaza con hacer es llevar la cultura del reinicio a un nivel desmesurado, sacándola por completo de las manos de los creadores.
“Hasta las mayores producciones comerciales de los estudios son el producto de 500 humanos, artistas desesperados compitiendo entre ellos y golpeándose la cabeza para lograr algo bueno”, dice el veterano guionista John Lopez. “La IA se salta ese proceso porque reduce todo a una sola persona trabajando con un modelo. Y no hay forma de que un solo tipo frente a un teclado tenga los impulsos creativos para poner en pantalla algo que se equipare con la información que vive en 500 cerebros”.
Lilo & Stitch puede ejemplificar la tendencia actual de Hollywood de reempaquetar cínicamente lo que funcionó en el pasado para revenderlo a la misma audiencia dos décadas después. Pero la nueva película es una creación artística genuina, con un director nominado al Oscar, un productor con experiencia y un elenco diverso. La era del cine con IA podría ofrecer una versión completamente diferente de Lilo & Stitch, sin ninguno de esos avales, solo miles de versiones descuidadas de una niña y su perro alienígena uniéndose por el ohana en los Estados Unidos del Contenido Personalizado.

Si ese mundo llega a concretarse, podría dar lugar a un Hollywood que se parezca mucho más a las redes sociales. Y si eres del tipo de persona que encuentra genialidad en los memes, habrá algo que admirar en estas nuevas formas re-apropiadas. La desprofesionalización incluso puede ser alentadora desde una perspectiva populista, poniendo el cine en las manos de muchos. Pero el arte también es inherentemente elitista. Y parece razonable preguntarse si, al erosionar ese elitismo, también se pierden aspectos del arte.
En el Festival de Cine de Tribeca hace unas semanas, Aronofsky estrenó Ancestra, una película de 45 minutos de Eliza McNitt producida por Primordial Soup. En el evento, Aronofsky expuso una visión que alentará a cualquiera que espere que la era de la IA pueda conservar lo humano.
“La chatarra es alucinante en el sentido de que dices: ‘Guau, nunca había visto eso antes’”, dijo el director. “Pero nada de eso permanece contigo. Captura tu atención por un segundo y realmente funciona bien en redes sociales… pero no permanece contigo porque no hay historias, no hay emociones”.
Aronofsky dijo que su misión era encontrarlas dentro de la máquina. “Hay muchas formas de usar estos modelos. A mí me interesa principalmente descubrir cómo usarlos para contar historias”.
Pero admitió que aún estaba en las etapas iniciales de ese proceso, y que incluso con su experiencia, todavía no había logrado extraer narrativas del código, o determinar si eso era siquiera posible.
Si lo es, plantea un conjunto final de preguntas: ¿de dónde vendrá entonces lo nuevo? Porque si los modelos sintetizan todo lo humano que alguna vez fue, ¿qué pasa cuando se agoten tantas combinaciones significativas? ¿Qué ocurre cuando la IA no tenga nada más de qué alimentarse más que de sí misma? En ese punto, ¿podríamos estar encaminándonos hacia una especie de cine del ouroboros, una serie de producciones infinitamente recursivas que se vuelven cada vez menos interesantes a medida que se vuelven más endogámicas? El arte siempre ha bebido del pasado, pero también ha avanzado inexorablemente hacia el futuro. Una IA que, por definición, mira hacia atrás, nos hace preguntarnos si queda algún lugar al que avanzar.