
Esta semana se ha producido un gran revuelo en el mundo de la IA. OpenAI confirmó la prohibición de varias cuentas vinculadas a grupos afiliados al estado chino tras ser descubiertas usando ChatGPT para elaborar propuestas de vigilancia en redes sociales y otros planes de monitoreo de datos.
Según informes recientes , los usuarios habían pedido al modelo que diseñara herramientas para rastrear conversaciones en línea en plataformas como X, Facebook y Reddit y, en algunos casos, automatizar campañas de phishing y de influencia.
Ahora bien, el punto es el siguiente: OpenAI insiste en que sus modelos no crearon nuevas armas cibernéticas ni herramientas de vigilancia únicas.
Al parecer, los usuarios intentaban adaptar la tecnología existente a su voluntad, no inventar algo completamente nuevo. Aun así, eso no es precisamente reconfortante.
El último informe de amenazas de la compañía muestra cómo la IA generativa, aunque revolucionaria, se está convirtiendo en un semillero de espionaje digital, y no se limita a un solo país.
A principios de este año , OpenAI detectó una actividad similar por parte de grupos de piratas informáticos de habla rusa que utilizaban sistemas basados en GPT para escribir código malicioso y analizar datos robados.
Esa es la parte complicada de todo este debate: la IA no distingue entre un investigador que prueba una idea y alguien que construye una red de espionaje digital.
Un analista de ciberseguridad con el que hablé bromeó diciendo que es como entregarle una navaja suiza a un espía y esperar que abra una botella de vino.
Y no se equivoca. Estamos presenciando el nacimiento de la vigilancia estatal asistida por IA , y es tan inquietante como parece.
Algunos expertos señalan que este no es un problema nuevo. En mayo, varias investigaciones revelaron cómo actores extranjeros utilizaban discretamente noticias generadas por IA para moldear narrativas políticas en plataformas occidentales, lo que encaja perfectamente con hallazgos previos sobre fábricas de noticias falsas que producían propaganda verosímil.
Combine eso con modelos de video generativos como Sora, que pueden crear imágenes convincentes de figuras públicas diciendo lo que quiera (como se vio en otro caso alarmante ) y parece como si la verdad misma estuviera siendo reescrita en tiempo real.
La compañía dice que ahora está cooperando con agencias de ciberseguridad para monitorear dicho mal uso y fortalecer los sistemas de detección.
Algunos críticos, sin embargo, sostienen que la represión es más reactiva que preventiva.
Un artículo reciente en un análisis de The Verge lo expresó sin rodeos: estas empresas de IA se están convirtiendo en “fuerzas policiales digitales” sin las reglas, la responsabilidad ni la capacitación necesarias para manejar amenazas de seguridad a escala global.
Y, francamente, estoy de acuerdo: parece que la tecnología está superando a la ética por mucho.
¿Qué sigue? Probablemente un tira y afloja más complejo entre innovación y regulación. Los gobiernos exigirán transparencia, las empresas denunciarán «secretos comerciales» y el público solo esperará que sus rostros no aparezcan en un cartel de campaña generado por IA.
Quizás este sea el precio de jugar con fuego a gran escala. Pero una cosa es segura: a medida que la IA se vuelve más inteligente, la línea entre ingenio y peligro se difumina.