Es una de las tantas preguntas que aparecen desde que, hace dos años, la inteligencia artificial generativa (IA Gen) se metió de lleno en nuestra rutina diaria: ¿quién es el dueño de la enorme cantidad de contenido que millones de personas crean a cada minuto en ChatGPT, Gemini, Copilot, Perplexity, Claude, Meta, DeepSeek y tantas otras plataformas que permiten generar textos, imágenes, videos y audios mediante un simple prompt?
Los derechos de autor y la propiedad intelectual son, tal vez, uno de los principales desafíos que enfrenta la pujante y creciente industria de la inteligencia artificial. Para entrenar una plataforma de IA generativa se necesitan cantidades ingentes de contenido: millones de textos, imágenes, canciones, sonidos, videos, voces humanas, noticias, artículos, obras de arte, entre otros. Sin ese insumo, la IA Gen no puede funcionar. Es crucial. Los datos digitales son para la IA lo que la gasolina es para un auto: el combustible que la hace andar.
Ahora bien, gran parte de esos contenidos ya están publicados en la web, en bibliotecas digitales, portales de noticias, sitios, blogs, bases de datos, bancos de imágenes, redes sociales, Wikipedia y un largo etcétera. Y la mayoría de ese material está protegido por derechos de autor. Sin embargo, las grandes empresas tecnológicas lo usaron —y lo siguen usando—, para entrenar sus algoritmos sin pagar un solo dólar. Ese es uno de los puntos más conflictivos del debate actual.
Así fue que en muy poco tiempo surgieron los primeros enfrentamientos por derechos de autor. Uno de los casos más relevantes se produjo a fines de 2023, cuando The New York Times se convirtió en el primer medio del mundo en demandar a OpenAI y Microsoft —propietarios de ChatGPT y Copilot, respectivamente—, por utilizar, sin permiso, millones de textos de su propiedad para entrenar modelos de lenguaje. El Times sostuvo que esos artículos le pertenecen y están protegidos por copyright. “Los demandados buscan aprovecharse de la enorme inversión que ha hecho el Times en su periodismo”, afirma el texto de la demanda, que ya se perfila como histórica.
Algunos la comparan con la que enfrentó Napster a comienzos de los 2000, por permitir la descarga masiva de archivos MP3 protegidos por derechos de autor. En este caso, el diario exige que OpenAI —valuada en unos 300 mil millones de dólares— pague por el uso de ese contenido.
Pero hubo respuesta. La empresa de inteligencia artificial argumentó que sus modelos de lenguaje necesitan aprender del texto disponible en la web. Sostiene que no copian ni repiten artículos, sino que simplemente los “leen” para luego generar contenido nuevo, sin reproducirlos de forma textual. Y que, al igual que una persona que escribe sobre algo que leyó sin infringir derechos de autor, la IA actúa de la misma manera.
Según su postura, para funcionar, la IA necesita acceso libre a toda la información disponible online. De lo contrario, no podría existir. OpenAI enmarca su accionar dentro de lo que en el ámbito legal se conoce como “uso razonable o justo” (fair use), una doctrina que permite reutilizar material protegido sin autorización previa en ciertos contextos, como la enseñanza, la crítica o la investigación.
Pero hay otros casos en conflicto. A fines de febrero, distintos actores de la industria creativa y tecnológica del Reino Unido —medios de comunicación, editoriales, agencias de publicidad y relaciones públicas, ilustradores, diseñadores y varias asociaciones profesionales—, formaron la Creative Rights in AI Coalition, una agrupación que impulsa la campaña “Make it fair”. ¿Qué le exigen al gobierno británico? Que reconsidere las modificaciones a la ley de derechos de autor y proteja el trabajo del sector ante el riesgo de ser entregado de forma gratuita a las empresas de inteligencia artificial para alimentar sus modelos.
Como parte del lanzamiento, los principales diarios del Reino Unido publicaron, el mismo día, una tapa idéntica con la leyenda “Make it fAIr”. En el texto de la solicitada advirtieron: “La industria creativa aporta 120 mil millones de libras por año a la economía, recursos que estarían en peligro si el gobierno legitima el robo de contenido”.
Cuando la IA copió tu estilo (y no pagó por eso): ¿Quién es el dueño de lo que se crea artificialmente?
Durante abril pasado, las redes sociales se inundaron con miles de imágenes generadas por inteligencia artificial que imitaban a la perfección el estilo de Ghibli, el famoso estudio de animación japonés fundado por Hayao Miyazaki e Isao Takahata, creador de clásicos como Mi vecino Totoro, La princesa Mononoke y El viaje de Chihiro. Estas imágenes estilo Ghibli fueron creadas por millones de usuarios gracias al nuevo motor de generación visual de ChatGPT.
Todo empezó con un estímulo directo del propio Sam Altman, CEO de OpenAI, quien el 22 de marzo publicó en la red X (donde tiene 3.5 millones de seguidores) una imagen Ghibli con el provocador texto “Feel the AGI” (“Sentí la AGI”). Su posteo se viralizó de inmediato y, como parte de una jugada estratégica, OpenAI habilitó el acceso gratuito a su generador de imágenes. A partir de ahí, millones de personas empezaron a crear versiones “ghiblificadas” de retratos, memes y fotos famosas. Altman incluso llegó a anunciar un millón de nuevos usuarios por hora.
Los fans de Miyazaki alzaron la voz. Incluso él mismo lo hizo, aunque hace casi una década: en 2016. Muchos medios y usuarios compartieron un video donde el cineasta japonés criticaba duramente a la inteligencia artificial. “Es un insulto a la vida misma”, dijo. Aunque en ese momento no se refería concretamente a lo que hoy puede hacer ChatGPT con su estilo tan característico, es muy probable que su opinión no haya cambiado. Tal vez incluso haya empeorado. No lo sabemos.
Lo que sí está claro es que su marca autoral y el legado de Studio Ghibli son, en teoría, los más perjudicados por esta nueva función de generación visual de OpenAI. Millones de imágenes creadas con su trazo distintivo, sin que nadie haya pagado un solo dólar por ello.
Lo que empezó como un juego viral terminó por dejar al descubierto los límites —o la ausencia total de ellos—, en el uso de la inteligencia artificial generativa. Porque detrás de cada imagen simpática que circula por la web, hay decisiones tecnológicas, legales y éticas que impactan en millones de personas.
Sin embargo, esto abre otra discusión: ¿es posible proteger legalmente una expresión humana? ¿Hasta dónde llega la ley y dónde empieza la creatividad?
Porque un estilo, en sí mismo, no se puede proteger. Y este punto es clave: no se puede registrar ni reclamar legalmente por un “estilo”, ya sea el trazo de un ilustrador, la paleta de colores de una obra o el encuadre característico de una fotografía. La ley solo ampara la obra puntual, no el “cómo” fue hecha. En el mundo digital, eso deja a muchos artistas expuestos: sus estilos pueden ser imitados sin consecuencias legales. ¿Cuántos videos vimos ya en “modo Wes Anderson”?
El nudo del problema legal es claro: si los algoritmos de OpenAI —o de cualquier otra plataforma de inteligencia artificial—, ya pueden replicar con precisión casi cualquier estilo, eso implica que fueron entrenados con cientos, o miles, de obras originales que sí están protegidas por la ley de copyright. Y, hasta ahora, las empresas de IA no pagaron por usar ese material para alimentar sus modelos. Se trata de fotos, libros, canciones, voces, cuadros y más.
Ahora bien, la inspiración no se puede regular ni encerrar en una ley. Cuando alguien crea una obra original —escribe, pinta, compone una canción o filma una película—, es evidente que está influenciado por todo lo que consumió a lo largo de su vida: obras que, en su mayoría, están protegidas por derechos de autor. Pero eso no implica un pago por cada influencia. La inspiración es intangible. ¿Cómo se cuantifica o se monetiza la huella que dejaron las grandes obras? ¿Cuántas películas se hicieron bajo la influencia de Spielberg, Tarantino o Scorsese? ¿Cuántos libros nacieron de la lectura de Stephen King, Borges o Asimov?
De todos modos, la pregunta de fondo persiste: ¿es justo que una empresa se apropie del trabajo de artistas sin pagarles o ni siquiera avisarles? ¿Dónde queda la autoría en un mundo donde la tecnología ya permite copiar todo, al instante y sin costo?
La base legal que sostienen quienes defienden la propiedad intelectual se apoya en tres pilares fundamentales:
El primero, es el valor del trabajo creativo. Una obra artística implica elaboración, ideas propias, mirada personal, subjetividad. No es solo una enumeración de hechos u objetos. Por eso, debe estar protegida legalmente, y su uso para entrenar redes neuronales —como las de ChatGPT—, debería ser remunerado.
El segundo argumento es económico: empresas como OpenAI y Microsoft le cobran a los usuarios por el uso de sus plataformas. Es decir, obtienen beneficios directos a partir de modelos entrenados con contenido que no les pertenece.
Y el tercer pilar es reputacional, ya que los resultados generados por la IA pueden dañar la marca, la imagen o la credibilidad de los autores, al replicar, sin autorización, su estilo, voz o ideas. Como ocurre, por ejemplo, cuando se pide una imagen “estilo Ghibli” o cuando la IA cita mal un texto de un medio o atribuye frases de forma errónea.
Del otro lado del mostrador, las empresas de tecnología responden: “Si no podemos usar las obras que el mundo generó, no hay manera de entrenar y avanzar con la IA”. Las respuestas, por ahora, no son definitivas, pero la discusión ya está instalada.
Lo que sí parece fuera de toda duda es que el mundo necesita repensar —con urgencia—, una nueva ley de derechos de autor que contemple los desafíos que trajo la inteligencia artificial. Muchos de los marcos legales que organizaban el siglo XX ya quedaron obsoletos. Y la tecnología, ya se sabe, corre mucho más rápido que los tiempos de la justicia.
Pero el caso de la IA es aún más complejo: todavía no existe una regulación global unificada. Europa sancionó su ley en agosto de 2024, pero aún no entró en plena vigencia. Estados Unidos y buena parte del mundo siguen expectantes. Las grandes empresas (y la administración Trump) saben que si regulan demasiado, corren el riesgo de quedarse atrás frente al avance de China.
El final, por ahora, está abierto, y lo que ocurra en los tribunales con estos casos sentará las bases de una relación futura inevitable: la que une a la industria de la IA generativa con los creadores de contenido, una relación que todavía busca sus propias reglas.
Fuente: forbes
