Los creadores tienen motivos para desconfiar del futuro de la IA generativa. Por un lado, aunque la GenAI puede ser una valiosa herramienta para la creatividad, también puede utilizarse para engañar al público y perturbar los mercados existentes del trabajo creativo. A los artistas, en particular, les preocupa que las imágenes y la música generadas por la IA se conviertan en sustitutos engañosos de modelos, actores o músicos humanos.

La legislación vigente ofrece a los artistas, intérpretes o ejecutantes múltiples formas de abordar esta cuestión. En Estados Unidos, la mayoría de los estados reconocen el "derecho de publicidad", es decir, el derecho a controlar si su imagen se utiliza con fines comerciales y de qué manera. Una versión limitada de este derecho tiene sentido -usted debería poder impedir que una empresa publique un anuncio que afirme falsamente que usted promociona sus productos-, pero el derecho de publicidad se ha ampliado mucho más allá de sus límites originales, hasta abarcar potencialmente casi cualquier discurso que "evoque" la identidad de una persona.

Además, todos los estados prohíben la difamación, las representaciones falsas perjudiciales y la competencia desleal, aunque los parámetros pueden variar. Estas leyes proporcionan métodos de eficacia probada para mitigar los daños económicos y emocionales derivados del uso indebido de la identidad, al tiempo que protegen los derechos de expresión en línea.

Pero algunos artistas quieren más. Sostienen que su derecho a controlar el uso de su imagen no debería variar en función del estado en que vivan. También les gustaría poder perseguir a las empresas que ofrecen herramientas de IA generativa y/o alojan contenidos "engañosos" generados por IA. Las normas ordinarias de responsabilidad, incluidos los derechos de autor, no pueden utilizarse contra una empresa que simplemente ha proporcionado una herramienta para que otros se expresen. Después de todo, no hacemos responsable a Adobe cuando alguien utiliza Photoshop para sugerir que un presidente no sabe leer o incluso por engaños más graves. Y la Sección 230 exime a los intermediarios de responsabilidad por contenidos difamatorios publicados por los usuarios y, en algunas partes del país, también por violaciones de los derechos de publicidad. De nuevo, esto es una característica, no un error; la inmunidad significa que es más fácil defender la expresión de los usuarios, en lugar de retirar o bloquear preventivamente cualquier contenido generado por el usuario que pueda dar lugar a litigios. Es una protección crucial no solamente para los grandes actores como Facebook y YouTube, sino también para los sitios pequeños, los medios de comunicación, los servidores de correo electrónico, las bibliotecas y muchos otros.

Equilibrar estos intereses contrapuestos no será fácil. Lamentablemente, hasta ahora el Congreso no lo está intentando. En su lugar, propone "soluciones" que solo crearán nuevos problemas.

El pasado otoño, varios senadores hicieron circular un "borrador de discusión", la NO FAKES Act. La profesora Jennifer Rothman hace un excelente análisis del proyecto de ley, incluido su aspecto más peligroso: la creación de un nuevo derecho federal de publicidad, transferible, que se extendería durante 70 años después de la muerte de la persona cuya imagen se pretende reproducir. Como señala Rothman, según la ley:

Las discográficas obtienen (y pueden hacer valer) los derechos sobre las réplicas digitales de los artistas, no sólo sobre los propios artistas. Esto abre la puerta a que las discográficas creen interpretaciones generadas por IA a bajo coste, incluso de celebridades fallecidas, y exploten esta lucrativa opción frente a las interpretaciones más costosas de seres humanos vivos, como ya se ha comentado.

En otras palabras, si queremos proteger a los artistas a largo plazo, basta con facilitar a las discográficas (por ejemplo) la adquisición de derechos de voz que puedan utilizar para no pagar a los artistas humanos durante décadas.

NO FAKES no ha tenido mucha fuerza hasta ahora, en parte porque la Motion Picture Association no la ha apoyado. Pero ahora hay una nueva propuesta: la "No AI FRAUD Act". Por desgracia, el Congreso sigue equivocándose.

En primer lugar, la Ley pretende atacar el abuso de la IA generativa para apropiarse indebidamente de la imagen o la voz de una persona, pero el derecho que crea se aplica a una cantidad increíblemente amplia de contenidos digitales: cualquier "imagen" y/o "réplica de voz" que se cree o altere utilizando tecnología digital, software, un algoritmo, etc. No hay mucho que no entre en esa categoría: desde fotos de tu hijo hasta grabaciones de acontecimientos políticos, pasando por docudramas, parodias, caricaturas políticas y mucho más. Si se trata de grabar o retratar a un ser humano, probablemente esté incluido. Y lo que es aún más absurdo, califica de "servicio de clonación personalizada" a cualquier herramienta cuyo objetivo principal sea producir representaciones digitales de personas concretas. Nuestros iPhones son muchas cosas, pero incluso Tim Cook probablemente se sorprendería al saber que está vendiendo un "servicio de clonación".

En segundo lugar, caracteriza el nuevo derecho como una forma de propiedad intelectual federal. Esta floritura lingüística tiene el efecto práctico de poner a los intermediarios que alojan contenidos generados por IA directamente en el punto de mira de los litigios. La inmunidad del artículo 230 no se aplica a las demandas federales de propiedad intelectual, por lo que los artistas intérpretes o ejecutantes (y cualquier otra persona que entre en el ámbito de aplicación de la ley) tendrán vía libre para demandar a cualquiera que aloje o transmita contenidos generados por IA.

Esto, a su vez, es una mala noticia para casi todo el mundo, incluidos los artistas. Si se promulgara esta ley, todo tipo de plataformas y servicios podrían temer represalias por el mero hecho de alojar imágenes o representaciones de personas, o cualquiera de los demás tipos de "imágenes" que cubre esta ley. Hay que tener en cuenta que muchos de estos servicios no estarán en condiciones de saber si la IA ha intervenido en la generación de un videoclip, canción, etc., ni tendrán recursos para pagar a abogados que se defiendan de las reclamaciones indebidas. La mejor forma de evitar esa responsabilidad sería filtrar enérgicamente los contenidos generados por los usuarios o negarse en redondo a apoyarlos.

En tercer lugar, aunque la vigencia del nuevo derecho se limita a diez años después del fallecimiento (un plazo bastante largo), se combina con un lenguaje muy confuso que sugiere que el derecho podría extenderse mucho más allá de esa fecha si los herederos así lo desean. Además, la legislación no sustituye a las leyes estatales sobre derechos de publicidad, por lo que las condiciones podrían variar aún más dependiendo del lugar de residencia de la persona (o de sus herederos).

Por último, aunque los defensores del proyecto de ley afirman incorrectamente que protegerá la libertad de expresión, el texto del proyecto sugiere lo contrario. Es cierto que el proyecto de ley reconoce una "defensa de la Primera Enmienda". Pero toda ley que afecte a la libertad de expresión está limitada por la Primera Enmienda: así funciona la Constitución. Y el proyecto de ley intenta limitar esas importantes protecciones de la Primera Enmienda exigiendo a los tribunales que sopesen cualquier interés de la Primera Enmienda "frente al interés de la propiedad intelectual en la voz o la imagen". Esa prueba de equilibrio debe considerar si el uso es comercial, necesario para un "propósito expresivo primario" y perjudica el mercado de licencias del individuo. Esto parece un intento de importar una versión reducida de la doctrina del uso justo de los derechos de autor como sustituto del riguroso escrutinio y análisis que exige la Primera Enmienda (e incluso la Ley de Propiedad Intelectual).

Podríamos seguir, y lo haremos si el Congreso decide tomarse en serio este proyecto de ley. Pero no debería. Si el Congreso quiere realmente proteger a los artistas y a la gente corriente de los usos engañosos o explotadores de sus imágenes y su voz, debería adoptar un enfoque preciso, cuidadoso y práctico que evite posibles daños colaterales a la libertad de expresión, la competencia y la innovación. La Ley No al FRAUDE de la AI no se acerca ni de lejos al objetivo