Un ‘freelancer’ con inteligencia artificial engaña a Wired y Business Insider, lo que genera alarmas sobre la nueva crisis de confianza en el periodismo

Comenzó con una firma que parecía igual a cualquier otra: nada ostentoso ni sospechoso. Pero lo que los editores de Wired y Business Insider descubrieron más tarde fue todo menos ordinario.

El supuesto periodista independiente que había presentado múltiples historias resultó no ser una persona en absoluto, sino una creación generada por inteligencia artificial que publicaba artículos bajo una identidad fabricada.

Desde entonces, ambos medios han retirado sus artículos, una decisión que pone de relieve con qué facilidad incluso las redacciones más experimentadas pueden verse sorprendidas con la guardia baja en esta era de trucos algorítmicos.

Esta revelación no es solo una nota al pie peculiar en la historia de los medios, sino una señal de alerta. Lo que está en juego es claro: si las plataformas creíbles pueden ser víctimas de las mascaradas de la IA, ¿qué esperanza tienen realmente las publicaciones más pequeñas o los lectores que leen los titulares con indiferencia?

El año pasado, CNET tuvo que retractarse de varios artículos financieros después de admitir que gran parte del contenido había sido redactado silenciosamente por herramientas de inteligencia artificial, lo que provocó indignación por la transparencia y la precisión.

No se trata solo de palabras en una pantalla. El auge de los deepfakes hiperrealistas ya les ha complicado la vida tanto a las plataformas como a los políticos.

Tomemos como ejemplo el video falso de la senadora Amy Klobuchar que circuló a principios de esta semana: un clip tan convincente que su oficina tuvo que emitir un comunicado desmintiéndolo. Ahora está impulsando una legislación para frenar la propagación de contenido malicioso de IA.

Si los legisladores se esfuerzan por separar los hechos de las invenciones, puede apostar que el votante promedio que navega por su teléfono se quedará rascándose la cabeza.

Mientras tanto, los investigadores no se quedan de brazos cruzados. Un equipo de Cornell reveló recientemente un método experimental para etiquetar videos con marcas de agua invisibles y codificadas por luz para ayudar a detectar falsificaciones antes de que se propaguen demasiado.

Imagínense: la verdad ligada a los fotones. Parece ciencia ficción, pero podría ser el tipo de innovación que evita que nuestras noticias se llenen de «noticias» sintéticas.

Al final, el incidente de Wired/Insider parece uno de esos momentos de «despertar». Si las personalidades generadas por IA están eludiendo los controles editoriales ahora, ¿dónde estaremos dentro de cinco años? Como alguien que lee mucho (y quizás confía demasiado), no puedo evitar sentirme un poco incómodo.

Pero quizás el lado positivo sea este: cada vez que se exponen estas mentiras, la industria se ve obligada a ser más perspicaz, más ágil y más escéptica. Y en el periodismo, un poco de escepticismo siempre ha sido la mejor herramienta.

Alma Gonzales
Estaremos encantados de escuchar lo que piensas

      Deje una respuesta

      yopuedoprogramar
      Logo