top of page
Foto del escritorXperience Makers

OpenAI promete a los artistas control sobre sus datos, pero no queda claro cómo


(Wired) -- OpenAI, desarrolladora de ChatGPT, asegura que los artistas y otros propietarios de contenidos podrán solicitar que sus obras no se utilicen en el desarrollo de IA. Muchos detalles del plan siguen sin estar claros, sin embargo.


OpenAI está luchando contra demandas de artistas, escritores y editores que alegan que utilizó indebidamente su trabajo para entrenar los algoritmos de ChatGPT y otros sistemas de inteligencia artificial. La semana pasada, la empresa anunció una herramienta aparentemente diseñada para apaciguar a los creadores y titulares de derechos, concediéndoles cierto control sobre la forma en que OpenAI utiliza su trabajo.


¿Qué es Media Manager de OpenAi?

La empresa anuncia que lanzará una herramienta en 2025, llamada Media Manager, que permitirá a los creadores de contenidos excluir su trabajo del desarrollo de IA de la empresa. En una entrada de blog, OpenAI describió la herramienta como una forma de permitir que "los creadores y propietarios de contenido nos digan lo que poseen" y especifiquen "cómo quieren que sus obras se incluyan o excluyan de la investigación y el entrenamiento de aprendizaje automático."


OpenAI aseguró que está trabajando con "creadores, propietarios de contenidos y reguladores" para desarrollar la herramienta y pretende que "establezca un estándar en la industria". La compañía no nombró a ninguno de sus socios en el proyecto ni aclaró exactamente cómo funcionará la herramienta.


Entre las preguntas abiertas sobre el sistema figuran si los propietarios de contenidos podrán hacer una única solicitud para cubrir todas sus obras y si OpenAI permitirá solicitudes relacionadas con modelos que ya hayan sido entrenados y puestos en marcha. Se está investigando el "desaprendizaje" de las máquinas, un proceso que ajusta un sistema de IA para eliminar retrospectivamente la contribución de una parte de sus datos de entrenamiento, pero la técnica aún no se ha perfeccionado.


Ed Newton-Rex, director general de la startup Fairly Trained, que certifica a las empresas de IA que utilizan datos de entrenamiento obtenidos de forma ética, indica que el aparente cambio de OpenAI sobre los datos de entrenamiento es bienvenido, pero que su aplicación será fundamental. "Me alegra ver que OpenAI se ocupa de este tema. Si realmente ayudará o no a los artistas dependerá de los detalles, que aún no se han facilitado", afirma. La primera gran pregunta que se plantea: ¿Se trata simplemente de una herramienta de exclusión que permite a OpenAI seguir utilizando datos sin permiso a menos que el propietario del contenido solicite su exclusión? ¿O representará un cambio mayor en la forma de trabajar de OpenAI? OpenAI no ha respondido inmediatamente a la solicitud de comentarios.


¿Y qué pasa con la IA que no es de OpenAI?

Newton-Rex también tiene curiosidad por saber si OpenAI permitirá a otras empresas utilizar su Gestor de Medios para que los artistas puedan indicar sus preferencias a varios desarrolladores de IA a la vez. "Si no, solo añadirá más complejidad a un entorno de exclusión ya de por sí complejo", sentencia Newton-Rex, que fue ejecutivo de Stability AI, desarrollador del generador de imágenes Stable Diffusion.


OpenAI no es la primera empresa que busca fórmulas para que los artistas y otros creadores de contenidos indiquen sus preferencias sobre el uso de sus obras y datos personales en proyectos de IA. Otras empresas tecnológicas, desde Adobe hasta Tumblr, también ofrecen herramientas de exclusión en relación con la recopilación de datos y el aprendizaje automático. La startup Spawning puso en marcha un registro llamado Do Not Train hace casi dos años, y los creadores ya han añadido sus preferencias para 1,500 millones de obras.


Jordan Meyer, CEO de Spawning, señala que la empresa no está trabajando con OpenAI en su proyecto Media Manager, pero que está abierta a hacerlo: "Si OpenAI es capaz de hacer más fácil el registro o el respeto de los opt-outs (la decisión de quienes quieren sus obras afuera) universales, estaremos encantados de incorporar su trabajo a nuestra suite", añade.


Sin embargo, al igual que Newton-Rex, Meyer teme que la creación de muchos sistemas de opt-in (la decisión de quienes quieren sus obras incluidas) diferentes resulte demasiado onerosa para los artistas y creadores: "Una proliferación de herramientas de opt-out dispares construidas por gigantes de la IA es exactamente lo que tenemos que evitar", advierte. "El opt-out debe ser sencillo y universal, lo que creemos que requiere un sistema abierto construido por terceros".


No es tarea fácil

Los intentos anteriores de los principales desarrolladores de IA de proporcionar a las personas más control sobre cómo se utilizan sus datos no siempre han funcionado sin problemas. El año pasado, Meta puso en marcha un sistema para que las personas que no quisieran que sus datos personales se utilizaran para entrenar la IA de Meta pudieran solicitar su eliminación. Muchos artistas lo interpretaron como una forma de pedir que sus obras quedaran excluidas de los proyectos de IA de Meta y se sintieron frustrados cuando la empresa se negó a procesar sus solicitudes. Meta, por su parte, declaró a WIRED que no se trataba de una función de exclusión voluntaria.


Mientras tanto, un movimiento creciente que se opone al enfoque de la IA sobre los datos de entrenamiento está abogando por un cambio mucho más radical: cambiar a un régimen en el que las empresas de IA sólo entrenen algoritmos en datos con el permiso explícito de los creadores y los titulares de derechos. "Cuando se trata de empresas que pretenden obtener enormes beneficios y trastornar industrias, no creo que el opt-out funcione en absoluto", apunta el artista conceptual e ilustrador Reid Southen, que escribe a menudo sobre IA y arte. "El opt-in es la única forma viable de avanzar".


Tanto Southen como Newton-Rex creen que las herramientas de exclusión voluntaria pueden suponer una carga excesiva para los creativos, sobre todo si estas herramientas les obligan a presentar solicitudes para cada obra individual que quieran excluir del entrenamiento. "Imagínate si eres un fotógrafo con miles y miles de imágenes", propone Southern. "No hay manera".

5 visualizaciones0 comentarios

Yorumlar


Mesa de trabajo 11.png
Mesa de trabajo 3.png
NEX 2025 ENERO.png
bottom of page