
En China, las reglas del juego digital acaban de cambiar. A partir de este mes, gigantes de las redes sociales como WeChat, Douyin, Weibo y Rednote están oficialmente obligados a etiquetar cualquier contenido generado por IA, o asumirán las consecuencias.
La Administración del Ciberespacio de China (CAC) está implementando algunas de las políticas más estrictas hasta el momento, obligando a las plataformas a dejar en claro si están viendo material creado por humanos o el trabajo de un algoritmo.
Las reglas no se limitan a marcar o etiquetar publicaciones. Las plataformas ahora deben integrar metadatos en el contenido generado por IA para que tanto humanos como máquinas puedan marcarlo. ¿Y si alguien intenta colarse sin marcar su contenido sintético?
Las plataformas no solo tienen el derecho, sino también la obligación, de eliminarla. Esto coloca a China a la vanguardia de la regulación global, mientras que gran parte del resto del mundo aún debate qué significa realmente una «IA responsable».
Curiosamente, esto ocurre en un momento en el que incluso los expertos admiten que detectar las falsificaciones de inteligencia artificial es más difícil de lo que parece.
Un estudio reciente del laboratorio AI for Good de Microsoft descubrió que las personas solo podían identificar correctamente las imágenes generadas por IA aproximadamente el 62 % de las veces (básicamente, un lanzamiento de moneda), mientras que los sistemas de detección automatizados obtuvieron una puntuación muy superior al 90 %.
No es solo China la que intenta controlar el auge de la IA. El Grupo de Trabajo de Ingeniería de Internet (IETF) propuso recientemente un nuevo «Encabezado de Divulgación de Contenido de IA» que actuaría como una etiqueta digital adjunta al contenido web, informando a las máquinas —y eventualmente a los reguladores— sobre si la IA jugó un papel en su creación. Esta medida señala un avance hacia la coherencia global, aunque su adopción sigue siendo voluntaria.
Para las plataformas de redes sociales, esto es un arma de doble filo. Por un lado, estas medidas podrían ayudar a combatir la desinformación, los deepfakes y las narrativas manipuladas, problemas que han plagado los espacios en línea durante años.
Por otro lado, plantea interrogantes sobre hasta qué punto deberían intervenir los reguladores al decidir qué se mantiene y qué se elimina. Los críticos temen que se extralimiten, especialmente dado el estricto control de China sobre la libertad de expresión en línea.
¿El panorama general? No se trata solo de China. A medida que la IA generativa se expande en todos los sectores, los gobiernos de todo el mundo sienten la presión de establecer límites.
La UE está finalizando su Ley de IA, EE. UU. tiene debates en curso en el Congreso y gigantes tecnológicos como Google y OpenAI están compitiendo para implementar estándares voluntarios de marca de agua antes de que se vean obligados a hacerlo.
Mi opinión: independientemente de si estás de acuerdo o no con la postura autoritaria de China, está claro que hemos llegado al punto en el que el contenido de IA ya no puede existir en las sombras.
Si la gente no puede distinguir lo real de lo falso, y los reguladores no establecen las reglas básicas, el espacio digital se convierte en una guerra de poder. Quizás la lección aquí sea que la transparencia no es solo un lujo, sino que se está convirtiendo en el precio de entrada para la IA en el futuro.