Publicidad

La polémica del AI-casting: actores reales vs. avatares digitales en Hollywood

En menos de dos años, Hollywood pasó de experimentar con de-aging, dobles digitales y voces clonadas a discutir si una “estrella sintética” puede reemplazar —legal y éticamente— a un intérprete humano. El término AI-casting ya no describe solo el uso de algoritmos para encontrar talento: hoy incluye replicas digitales (caras/cuerpos escaneados), actuaciones generadas por IA y clonación de voz para crear o prolongar performances sin que el actor esté en el set. La tensión es evidente: los estudios ven eficiencia y control; los sindicatos exigen consentimiento, compensación y límites. En medio, técnicos y elencos lidian con un rodaje que cambia de reglas casi a diario. 

Qué está permitido (y qué no) hoy

Tras la huelga de 2023, el contrato TV/Teatro de SAG-AFTRA incorporó cláusulas históricas: ninguna réplica digital puede usarse sin consentimiento informado y pago; además, no puede sustituir a los extras hasta los mínimos de cobertura (es decir, no se puede “llenar” el fondo con clones para ahorrarse contrataciones que el convenio exige). Si un productor quiere escanear a una persona para crear su réplica, debe avisarle con al menos 48 horas y detallar el uso; cualquier uso posterior necesita una nueva autorización remunerada. Estas reglas, que parecían futuristas en 2020, hoy son condición de trabajo. El marco se ha extendido a otros sectores: en 2024 el sindicato cerró un acuerdo con discográficas para que la réplica vocal requiera consentimiento y pago; y en 2025 los actores de videojuegos votan un contrato con exigencias similares (consentimiento escrito y remuneración por IA). La discusión ya no es solo cinematográfica: toda la industria del entretenimiento intenta fijar una línea roja común. 

La ola regulatoria

Estados como California reforzaron el terreno con leyes sobre réplicas digitales (incluida la utilización póstuma con permiso de herederos), impulsadas por SAG-AFTRA. En Europa, el AI Act obliga a señalizar deepfakes y contenidos sintéticos; el Reino Unido, sin una ley específica aún, opera con guías de Equity que insisten en consentimiento, licencias acotadas, transparencia y remuneración justa. El mensaje político es consistente: la innovación no debe usarse para burlar derechos de imagen y de intérprete.

Por qué la polémica escaló en 2025

Con presupuestos presionados y sets más cortos, algunos estudios exploran dobles digitales y extras sintéticos para abaratar jornadas y alargar franquicias. Al mismo tiempo, el salto técnico hizo más fácil “revivir” actores, rejuvenecer rostros o reemplazar líneas de diálogo con una voz clonada. El resultado: ansiedad laboral entre elencos y equipos técnicos (maquillaje, foto, montaje, sonido) que ven moverse el piso de sus oficios; y un choque cultural sobre autoría y control creativo.

¿Y el casting de mañana?

Nadie serio propone prohibir la tecnología; el punto es cómo se usa. El consenso que emerge en sindicatos y reguladores sugiere un camino:
(1) consentimiento previo y específico para cualquier réplica o entrenamiento con la voz/imagen de una persona; (2) licencias claras (duración, territorios, medios, finalidades) y compensación proporcional; (3) etiquetado de contenido sintético/deepfake cuando corresponda; (4) límites contractuales para que las réplicas no sustituyan puestos protegidos por convenio; (5) transparencia hacia el público cuando la “estrella” es un avatar. Nada de esto detiene la IA, pero civiliza su uso en pantalla.

 

Walter Meneses