Adrián Sánchez Sallán
(España) Editor en La Iberofonía, especialista en defensa y geopolítica. Combina su profesión como técnico en procesos industriales con sus estudios en el programa de Experto Universitario en Materialismo Político en el Instituto Beatriz Galindo – La Latina. Es portavoz del Ateneo Iberófono Juan Latino.
El Comando de Operaciones Especiales de EE.UU. (SOCOM) está transitando de la investigación teórica a la creación sistemática de herramientas modernas de inteligencia artificial para llevar a cabo guerras de información a escala global. De acuerdo con información revelada por The Intercept, esta iniciativa implica la compra e integración de sistemas de IA basados en agentes para fortalecer tecnológicamente y escalar las operaciones militares de apoyo informativo (MISO, por sus siglas en inglés), cuya principal función es realizar campañas de propaganda en el extranjero.
Estos sistemas inteligentes están diseñados para minimizar la participación humana, con el objetivo central de “influir en audiencias extranjeras específicas” y, crucialmente, “suprimir narrativas disidentes”. Las operaciones propagandísticas para moldear la opinión pública pueden ejecutarse a nivel de comunidades objetivo con una precisión sin precedentes.
Un aspecto innovador es la capacidad de probar y optimizar campañas propagandísticas en modelos digitales de sociedades completas antes de su despliegue operativo. Este enfoque representa una evolución tecnológica fundamental para las operaciones MISO, elevándolas a un nivel de sofisticación nunca antes visto.
Contexto geopolítico y respuesta a competidores
Esta iniciativa surge como respuesta directa a desarrollos similares de competidores geopolíticos, en particular China y Rusia, que según reportes de inteligencia estadounidenses ya utilizan IA para llevar a cabo lo que denominan “guerra por la opinión pública”.
La creación de estos sistemas automatizados especializados también implica realizar un trabajo analítico complejo y de contrapropaganda. Los servicios de IA deben realizar scraping de datos en el campo informativo, analizar la situación en el ciberespacio y reaccionar en tiempo real a los temas de actualidad de acuerdo con los objetivos estratégicos de MISO.
Un requisito particularmente significativo es que estos sistemas deben poder “acceder a perfiles, redes y sistemas de individuos o grupos que intentan oponerse o desacreditar nuestros mensajes”. Esto permitiría a la IA aprender a realizar contraataques dirigidos y efectivos contra voces disidentes.
Retos técnicos y enfoques innovadores
A pesar de la ambición de estos planes, parte de la comunidad experta expresa escepticismo sobre su viabilidad y consecuencias. Especialistas como Emerson Brooking señalan la tendencia de los grandes modelos de lenguaje a las alucinaciones como un obstáculo significativo.
Sin embargo, para el Pentágono, el problema de las alucinaciones en los LLM (Modelos de Lenguaje a Gran Escala) no se considera un defecto técnico, sino un riesgo táctico gestionado. En SOCOM no se plantea la tarea imposible de crear una IA “sin alucinaciones”, reconociendo que la naturaleza probabilística de los modelos hace que esto sea imposible con la tecnología actual. El error se convierte en una variable controlada, cuyo nivel aceptable se determina exclusivamente por las tareas tácticas y los objetivos de cada operación MISO específica.
Una de las decisiones arquitectónicas clave podría ser la implementación generalizada de Retrieval-Augmented Generation (RAG). En lugar de permitir que el agente de IA genere información desde su “memoria” general, el sistema generaría cada tesis basándose en una base de datos previamente aprobada y verificada, compuesta por inteligencia, directivas y narrativas estratégicas. Los LLM se utilizarían principalmente para sintetizar estos hechos en formas lingüísticas persuasivas.
El concepto operativo podría implementarse sobre la base de controles y equilibrios entre múltiples sistemas de IA: un agente genera contenido, un segundo actúa como “equipo rojo” atacándolo en busca de inconsistencias lógicas y posibles alucinaciones, y un tercero (editor jefe) evalúa la conformidad del producto final con los objetivos de MISO.
Deepfakes y operaciones encubiertas
Estos desarrollos se enmarcan en una estrategia más amplia que incluye el uso de deepfakes ultra realistas para llevar a cabo operaciones encubiertas. El año pasado se informó que SOCOM planea emplear esta tecnología para operaciones psicológicas, aunque los detalles específicos siguen siendo clasificados.
La integración de estas capacidades representa un cambio paradigmático en la forma en que Estados Unidos concibe y ejecuta las operaciones de información. La automatización permitiría escalar estas campañas a niveles imposibles de alcanzar con equipos humanos, mientras que la capacidad de respuesta en tiempo real podría alterar fundamentalmente la dinámica de la guerra informativa.
Implicaciones éticas y estratégicas
La militarización de la IA para operaciones psicológicas plantea profundas cuestiones éticas y legales. Expertos legales han calificado operaciones anteriores de EE.UU. como posibles “crímenes de guerra” cuando han resultado en muertes de civiles, como en el caso de un ataque con drones en el Caribe que destruyó una embarcación y mató a once personas.
La comunidad internacional observa con preocupación estos desarrollos, ya que podrían desestabilizar aún más el ya frágil ecosistema informativo global. La capacidad de generar y desplegar propaganda hiperpersonalizada a escala masiva representa un desafío sin precedentes para la soberanía informativa de las naciones y para los esfuerzos por mantener espacios públicos de debate libres de manipulación exterior.
Mientras SOCOM avanza en la implementación de estas capacidades, se enfrenta no solo a desafíos técnicos sino también a cuestionamientos políticos y éticos sobre los límites de la guerra de información en la era digital. El equilibrio entre la ventaja estratégica y la integridad del discurso global remains un dilema sin resolver.
Nota: Este artículo se basa en reportes de The Intercept y otros medios sobre desarrollos en inteligencia artificial y operaciones psicológicas militares.


