La rebelión de Internet: Nace el ‘Spotify del Contenido’ que obligará a las IA a pagar o enfrentar un bloqueo.
Una nueva iniciativa busca que las IA paguen por el contenido que usan, creando un 'Spotify para la web' o enfrentarán bloqueos.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/20870805/pexels-photo-20870805.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
El festín digital llega a su fin
Durante años, una queja ha resonado en los rincones de internet: los modelos de inteligencia artificial devoran contenido de forma industrial y sin permiso. Para entrenar a gigantes como ChatGPT, Gemini o Claude, ejércitos de bots rastreadores (GPTBot, Googlebot, ClaudeBot) recorren la web, succionando millones de páginas, extrayendo texto y almacenando enlaces en un proceso conocido como 'scraping'. Esta dinámica, que ha sido la base del explosivo crecimiento de la IA, ha desatado una tormenta de problemas legales y técnicos.
El más visible es la infracción de la propiedad intelectual. Hemos visto imágenes con el estilo del Studio Ghibli generadas por IA y vídeos de actores reales insertados en escenas artificiales. El New York Times demandó a Microsoft y OpenAI por usar millones de sus artículos, y una ola de litigios de artistas y medios de comunicación ha puesto contra las cuerdas a empresas como Stability AI, Midjourney y Perplexity. Ante la presión, las compañías de IA han empezado a firmar acuerdos millonarios con grupos mediáticos como News Corp, Associated Press y hasta Disney, buscando una tregua en esta guerra por los datos.
El coste oculto de la voracidad de los bots
Pero el problema no es solo legal. Los sitios web se quejan de una pérdida masiva de tráfico. Si un usuario obtiene la respuesta de una IA, ya no necesita visitar la página original, lo que destruye el modelo de negocio basado en publicidad y visitas. Además, la actividad de estos bots puede ser devastadora. El CEO de iFixit denunció que el bot de Anthropic visitó su sitio un millón de veces en un solo día, mientras que Freelancer recibió casi cuatro millones de peticiones en cuatro horas. Este aluvión no solo aumenta los costes de servidor, sino que puede colapsar los sitios web para los usuarios humanos.
La solución: Un 'Spotify' para el contenido de Internet
Para poner orden en este caos, ha nacido el RSL Collective, una organización que impulsa el estándar abierto RSL (Really Simple Licensing). Su objetivo es simple pero revolucionario: permitir que cada sitio web controle el acceso de los bots a su contenido y establezca las condiciones, incluyendo el pago por su uso.
"Somos la llave para abrir las puertas", resume Doug Leeds, cofundador de la iniciativa. La idea es que cada web pueda definir a través de su archivo robots.txt qué páginas están disponibles, cuáles requieren una atribución y por cuáles los bots tendrán que pagar. Leeds compara el modelo con Spotify o Apple Music: las empresas de IA pagarían una tarifa plana por acceder a un vasto repositorio de contenido licenciado. Ese dinero se repartiría entre los creadores cuyo contenido fue utilizado. "Cuanto más utilicen tu contenido, más dinero recibirás", explica.
¿Por qué pagarían las grandes tecnológicas?
La pregunta es evidente: ¿por qué las compañías de IA pagarían por algo que hasta ahora han tomado gratis? Leeds argumenta que licenciar el contenido les permitiría ofrecer respuestas de mayor calidad y, paradójicamente, ahorrar dinero. Actualmente, para evitar problemas legales, las IA mezclan información de múltiples fuentes. El resultado, como en una receta de cocina improvisada, puede ser incoherente o incorrecto. Licenciar el contenido les permitiría usar la fuente original, ofreciendo una respuesta precisa y fiable, además de ahorrar en costes de procesamiento y en los multimillonarios gastos legales de las demandas por copyright.
El Plan B: El laberinto digital contra los bots
Pero, ¿y si las IA se niegan a pagar? Existe un plan B mucho más agresivo. Empresas como Cloudflare han desarrollado AI Crawl Control, un sistema que identifica y bloquea a los bots rastreadores no autorizados. Su arma más sofisticada es el 'AI Labyrinth'.
Lara Cohen, vicepresidenta de Cloudflare, lo describe como una trampa ingeniosa: "Cloudflare inyecta enlaces invisibles en el HTML que son irresistibles para los 'scrapers'. Estos enlaces conducen a un laberinto de páginas señuelo generadas por IA que desperdician los recursos del 'scraper' y contaminan los datos que intenta robar". El bot queda atrapado en un bucle infinito, gastando su capacidad de cómputo en datos inútiles, haciendo que el coste de robar la información sea mucho mayor que su valor.
Hacia un nuevo paradigma para la web
Estas iniciativas surgen en un momento crítico. En 2025, el tráfico de bots superó por primera vez al tráfico humano, alimentando la teoría del 'Internet Muerto', una web dominada por contenido sintético. Iniciativas como RSL no solo buscan una compensación justa, sino preservar el valor del contenido creado por humanos. "Nuestra cultura, nuestros gobiernos, nuestras vidas necesitan información producida por humanos para funcionar", concluye Leeds. La batalla por el futuro de la información digital no ha hecho más que empezar.