Titanes del conocimiento contra la IA: Britannica y Merriam-Webster demandan a Perplexity por robo de contenido de «motor de respuestas»

La Enciclopedia Británica y Merriam-Webster han llevado a Perplexity AI a los tribunales, acusándola de copiar su trabajo sin permiso y de usar indebidamente sus marcas. Presentaron una demanda el 11 de septiembre de 2025 ante el Tribunal de Distrito de EE. UU. para el Distrito Sur de Nueva York.

Lo que afirma la demanda

  • La denuncia alega que el “motor de respuestas” de Perplexity extrae contenido de Britannica y Merriam-Webster, lo copia y lo resume, y luego envía ese material a los usuarios sin la debida autorización. Se dice que ese “free riding”, como lo llaman los demandantes, roba tráfico web y reduce sus ingresos.
  • También acusa a Perplexity de violar la ley de marcas registradas al atribuir contenido falso o engañoso —“alucinaciones” generadas por la IA— a Britannica o Merriam-Webster. Por lo tanto, los usuarios podrían creer que Britannica o Merriam-Webster en realidad produjeron o respaldaron contenido que no produjeron.
  • La denuncia plantea una alegación de infracción en tres etapas: (1) cuando los rastreadores de Perplexity recopilan el material («etapa de curación»), (2) cuando ese material se utiliza como entrada sin procesar para su modelo de respuestas («etapa de entrada»), y (3) cuando Perplexity genera respuestas que son textuales, casi textuales o paráfrasis cercanas del contenido de Britannica/Merriam-Webster.

¿Por qué es tan importante?

No se trata solo de derechos de autor. Aborda la confianza, la reputación de marca y los límites con la IA generativa. Durante décadas, Britannica y Merriam-Webster han forjado su credibilidad mediante rigurosos estándares editoriales.

Si una herramienta de IA usa sus nombres para otorgar autoridad a contenido que no creó, eso podría engañar a los usuarios.

Los modelos de ingresos también están en juego. Cuando los usuarios obtienen respuestas directamente de Perplexity (o herramientas similares), es posible que nunca accedan al sitio web de origen. Esto se traduce en menos visualizaciones de anuncios, menos suscripciones y menos ingresos para los editores.

He investigado un poco más: aquí hay algunas cosas que la demanda implica o plantea que no fueron explicadas detalladamente:

  • Problemas con robots.txt y permisos de rastreo : la queja menciona que Perplexity puede usar rastreadores que ignoran o evaden las reglas que los sitios web establecen para evitar el raspado automático.

Esto sugiere un lado técnico de la disputa: no sólo qué contenido se está utilizando, sino cómo se está recopilando.

  • Tensión entre libertad de expresión, uso justo y monetización : algunos pueden argumentar que proporcionar resúmenes de contenido visible públicamente podría ser un uso justo, especialmente cuando se transforma.

Pero cuando los resúmenes reemplazan los clics y los ingresos, los tribunales pueden considerar el daño de forma diferente. Este caso podría sentar un precedente importante sobre cómo las IA generativas pueden utilizar el contenido web sin destruir los modelos de negocio subyacentes.

  • Riesgos para Perplexity si el tribunal falla en su contra : Más allá de los daños, podrían verse obligados a rediseñar parte de su motor de respuestas, cambiando cómo citan, cómo limitan el contenido “alucinado”, cómo atribuyen.

Podría forzar más acuerdos de licencia con los editores o políticas de uso de contenido más estrictas.

  • Lo que esto significa para los usuarios : si los resultados tienen que incluir una mejor atribución, descargos de responsabilidad o evitar el uso de marcas como Britannica a menos que la fuente sea precisa, eso podría cambiar la forma en que se utilizan los «motores de respuestas» día a día.

La confianza podría verse afectada si las personas ven errores atribuidos a marcas reconocidas. Además, podría aumentar la latencia o reducir la cobertura de ciertos tipos de información si los riesgos legales desalientan su inclusión.

Mi opinión

Parece que nos estamos acercando a un enfrentamiento. Durante demasiado tiempo, muchas empresas de IA han asumido que recopilar lo visible en línea, resumirlo y atribuirlo de forma imprecisa (o a veces incorrecta) es suficiente.

Pero este caso pone de relieve cómo ese enfoque socava la economía de producir contenido verificado de alta calidad.

Estoy de acuerdo con los editores: la credibilidad y la precisión son importantes. Si los sistemas de IA se basan en fuentes confiables para ganar legitimidad y luego inventan información o la atribuyen erróneamente, eso perjudica tanto el ecosistema informativo como las creencias de los usuarios.

La perplejidad (y herramientas similares) tal vez necesiten construir sistemas más éticos y transparentes, más temprano que tarde.

Alma Gonzales
Estaremos encantados de escuchar lo que piensas

      Deje una respuesta

      yopuedoprogramar
      Logo