
YAKARTA — El gobierno de Indonesia ha enviado un mensaje claro a las plataformas tecnológicas globales: den un paso adelante y den a los usuarios herramientas gratuitas para detectar contenido generado por IA antes de que la desinformación se salga de control.
Los funcionarios expresaron su preocupación por que la explosión de la IA generativa podría potenciar los engaños, las falsificaciones profundas y la manipulación política, poniendo en riesgo la confianza pública en la era digital.
Esta medida llega en un momento en que Indonesia, la tercera democracia más grande del mundo, se prepara para las próximas temporadas políticas cruciales.
La postura del gobierno no se limita a los memes falsos o las fotos ridículas alteradas, sino al riesgo de que los videos y discursos generados por inteligencia artificial influyan en la opinión pública de maneras que no se pueden rastrear ni corregir fácilmente.
Algunos responsables de las políticas ya están señalando ejemplos globales, como cuando se utilizaron voces clonadas por inteligencia artificial para hacerse pasar por políticos en Europa, como advertencia de lo que pronto podría ocurrir en el sudeste asiático.
Lo que llama la atención aquí es la solicitud de que las plataformas proporcionen estas funciones de detección de forma gratuita . Parece simple, pero hay un debate más amplio en el fondo: ¿debería recaer la responsabilidad de combatir los deepfakes en empresas privadas como Meta, Google o TikTok, o deberían los gobiernos financiar sus propios sistemas de monitoreo?
El llamamiento de Indonesia inclina la balanza a favor de los gigantes tecnológicos, pidiéndoles que abran la caja negra y compartan soluciones con los usuarios cotidianos en lugar de acumular tecnología de detección internamente.
La detección de contenido con IA en sí misma dista mucho de ser perfecta. Estudios recientes muestran que muchas herramientas etiquetan el contenido escrito por humanos como «IA» y viceversa, lo que genera confusión e incluso acusaciones injustas en escuelas y lugares de trabajo.
La Comisión Federal de Comercio de EE. UU. (FTC) persiguió recientemente a una empresa por afirmar engañosamente que su sistema de detección de IA era prácticamente infalible, cuando en la práctica no lo era. Esto debería hacernos preguntarnos: si Indonesia consigue las herramientas que exige, ¿cuán precisas serán realmente?
Aun así, el llamamiento de Yakarta refleja una creciente urgencia a nivel mundial. La Unión Europea ya ha implementado nuevas directrices que instan a las plataformas a incluir marcas de agua o etiquetas en los medios sintéticos, mientras que Estados Unidos está experimentando con compromisos voluntarios de los desarrolladores de IA para marcar el contenido generado.
Indonesia, por su parte, está adoptando un enfoque más directo: no sólo etiquetarlo, sino asegurarse de que el público pueda detectarlo por sí mismo.
Al final, es una pregunta simple pero complicada: ¿te sentirías más seguro en línea si cada publicación viniera con un sello de “hecho por humanos verificado”, o eso solo agregaría otra capa de ruido?
Personalmente, creo que algo de transparencia es mejor que nada. Pero a menos que las herramientas sean rápidas, precisas y accesibles, podríamos estar simplemente poniendo cinta adhesiva en una tubería con fugas. Y con la IA evolucionando más rápido de lo que la regulación puede seguir, el tiempo apremia.