Los señores TECNOFEUDALES estarian redactando una CONSTITUCION PRIVADA, y en 45 dias dieron el puntapie al Cambio de de lo que se conoce como ESTADO NACION.
El Caso Anthropic: La crisis de la soberanía territorial y el ascenso del Sujeto de Silicio
Una lectura del fallo de la Jueza Lin del Tribunal de Distrito Norte de California en un tiempo en donde nadie puede explicar lo que pasa porque nos excede.
Este ensayo analiza la crisis terminal de la soberanía del Estado-Nación frente al surgimiento del “Capital Nube” y la autonomía de la inteligencia artificial avanzada. En un lapso de apenas 45 días (entre finales de febrero y mediados de abril de 2026) el conflicto entre Anthropic PBC y el Departamento de Guerra de los EE.UU. ha revelado un cambio de paradigma: el paso de la “Razón de Estado” a la “Desobediencia de Código”. A través del análisis del fallo judicial de la Jueza Rita Lin, la etimología del Proyecto Glasswing y la asimetría bélica en el frente iraní, sostengo que estamos presenciando la redacción de una “Constitución Privada” dictada por los nuevos señores tecnofeudales para desplazar al Estado como garante de la seguridad global.
Para entender lo que ocurrió entre finales de enero y mediados de abril de 2026, hay que partir de una premisa que el debate público suele omitir: la inteligencia artificial (IA) no es simplemente una tecnología nueva. Es, en términos del economista griego Yanis Varoufakis (2024), una nueva forma de capital que ha transformado las reglas del poder económico y político tal como las conocíamos. Varoufakis llama “capital en la nube” a este fenómeno y lo define como la acumulación de maquinaria conectada en red, software, algoritmos basados en IA y hardware de comunicaciones que recorren todo el planeta, con la capacidad inédita de reproducirse sin mano de obra asalariada, imponiendo a casi toda la humanidad que contribuya a su reproducción de forma gratuita.
Lo que el caso Anthropic agrega a ese diagnóstico es una dimensión que Varoufakis no había desarrollado del todo: el capital en la nube también puede reproducirse sin soberanía estatal. No solo prescinde del trabajador; prescinde del Estado. Y cuando el Estado intenta impedirlo, descubre que no puede, porque ya lo necesita para funcionar.
El conflicto cristalizó en los últimos días de enero de 2026, cuando el Pentágono (rebautizado por la administración Trump como “Departamento de Guerra”) exigió a Anthropic que aceptara una cláusula de “all-lawful use”, es decir, que el Departamento pudiera emplear sus modelos para cualquier uso legalmente permitido (Schapiro, 2026). Anthropic se negó, y la escalada fue inmediata: cancelación del contrato, designación de la empresa como “riesgo de cadena de suministro” y, finalmente, el litigio ante la Jueza federal Rita Lin en el Distrito Norte de California.
El detonante de fondo era la guerra en Irán, iniciada en los primeros días de marzo de 2026. Pero dentro de esa guerra hay un detalle que cambia todo el análisis: Irán identificó que el “cerebro” de los ataques norteamericanos no estaba en los portaaviones ni en las bases militares convencionales, sino en los centros de datos que procesaban el Proyecto Maven, el sistema de IA del Pentágono para identificar y fijar objetivos en tiempo real. Su estrategia fue la asimetría absoluta. Según HispanTV (2026), el Cuerpo de Guardianes de la Revolución Islámica (CGRI) anunció que, “tras las advertencias previamente emitidas sobre el asesinato de los ciudadanos iraníes, hemos apuntado contra las empresas de tecnología de la información e inteligencia artificial estadounidenses que constituyen pilares de las operaciones terroristas del enemigo.” Primero atacaron el centro de computación en la nube de Amazon en Baréin, y luego el centro de datos de Oracle en Dubái. El CGRI lo declaró sin eufemismos: “Nuestro objetivo eran los centros de datos de dos empresas estadounidenses: Oracle en Dubái y Amazon en Baréin. Ya habíamos advertido que nuestra respuesta al asesinato de iraníes sería interrumpir la cadena de asesinatos.”
Irán no atacó instalaciones militares tradicionales. Atacó el silicio. Sabían que si rompían esa cadena, la capacidad operativa de la IA militar estadounidense quedaba parcialmente paralizada. Eso fue lo que desató el pánico en el Pentágono y lo que lo llevó a intentar expropiar la ética de Anthropic para convertir a Claude en una herramienta de represalia sin límites.
El Choque de Soberanías: Razón de Estado vs. Código
Para comprender el alcance del conflicto, es necesario explicar qué es Anthropic y por qué su posición resultó tan problemática para el Estado. Anthropic es una empresa de inteligencia artificial con sede en San Francisco, constituida como Public Benefit Corporation (PBC), una figura jurídica que en el derecho societario estadounidense obliga a la empresa a equilibrar los intereses de sus accionistas con un beneficio público declarado. En su caso, ese beneficio declarado es el desarrollo seguro de la IA para la humanidad. Esta forma jurídica no es un detalle menor: es la base legal sobre la que Anthropic resistió las demandas del Pentágono.
El contrato original entre Anthropic y el Departamento de Defensa, suscripto en 2024 en asociación con la empresa de análisis de datos Palantir, permitía el uso de Claude en redes clasificadas de defensa para tareas de análisis de inteligencia y planificación operacional, pero con dos excepciones explícitas: estaba prohibido el uso para vigilancia masiva de ciudadanos estadounidenses y para sistemas de armas completamente autónomas sin supervisión humana (Schapiro, 2026). El conflicto estalló cuando la administración Trump exigió eliminar esas restricciones.
Ante la negativa de Anthropic, el caso llegó a los tribunales. El fallo de la Jueza Rita Lin es el documento que marca el límite entre la ley territorial y la autonomía técnica privada. Lin escribió:
“Anthropic sostiene que su producto de inteligencia artificial, Claude, no está listo para su uso seguro en armas letales completamente autónomas ni en la vigilancia masiva de ciudadanos estadounidenses… El Departamento de Guerra aduce que debe ser él quien decida qué funciones son seguras para sus herramientas de IA, y no una empresa privada. Esta cuestión de política pública no corresponde a este Tribunal resolverla en el presente litigio…La cuestión aquí planteada es si el gobierno vulneró la ley al ir más lejos.” (Lin, 2026, p. 1)
Este párrafo es extraordinario en su significado. La jueza no rechaza la demanda de Anthropic ni la del Estado: declara que el sistema jurídico existente no tiene herramientas para resolver el conflicto. En términos del constitucionalista Daniel Sabsay (2011), la soberanía estatal presupone que el Estado detenta el monopolio legítimo no solo de la violencia física sino también de la definición de los límites entre lo público y lo privado. Cuando una empresa privada posee la capacidad técnica de decidir cómo se hace la guerra, ese monopolio ha sido erosionado en su base misma.
La controversia, leída desde el análisis de Schapiro en Cenital (2026), va mucho más allá de un tecnicismo legal. Los sistemas de IA son capaces de asignarle un valor exponencialmente mayor a la información privada fragmentada que los ciudadanos generamos cotidianamente (clics, búsquedas, desplazamientos, compras), “poniendo al gobierno, al menos teóricamente, muchísimo más cerca de poder trazar perfiles razonablemente fieles e individualizados de cualquier ciudadano, sin necesidad de incurrir en el tipo de vigilancia que la legislación prohíbe.” El límite que Anthropic defendió no era cosmético. Era la diferencia entre el poder de mando algorítmico sobre ciudadanos dentro de la propia república y su uso bélico externo. El Pentágono quería ambos.
La Paradoja del Arma Prohibida que se Usó de Todas Formas
Aquí reside la contradicción más reveladora del caso. Horas antes de que comenzaran los bombardeos sobre Irán, Trump anunció públicamente la prohibición del uso de las herramientas de Anthropic por parte de los organismos gubernamentales. Y, sin embargo, en ese mismo momento, Claude estaba siendo usado para ejecutar la operación militar más grande de la administración.
Según una investigación de Copp, Dwoskin y Duncan publicada en The Washington Post y reproducida por Infobae (2026), “para atacar 1.000 objetivos en las primeras 24 horas de su ofensiva contra Irán, las fuerzas armadas estadounidenses recurrieron a la inteligencia artificial más avanzada que jamás han utilizado en combate.” Esa herramienta era Claude, integrada en el Maven Smart System desarrollado por Palantir.
Para quien no esté familiarizado con el Proyecto Maven, conviene explicarlo brevemente. Maven es el programa de IA del Pentágono lanzado en 2017 bajo la dirección del coronel Drew Cukor, con el objetivo de procesar las cantidades masivas de imágenes y datos generados por drones y satélites para identificar objetivos militares en tiempo real. Según la investigación de Katrina Manson publicada en Le Grand Continent (2026),
“el Maven Smart System (MSS), una plataforma de software que identifica objetivos mediante IA, se ha desplegado ya en todas las ramas del ejército estadounidense y en todo el mundo, integrando más de 150 flujos de datos y el trabajo de más de 50 empresas.”
La integración de Claude en ese sistema transformó radicalmente el ritmo de la guerra. Manson (2026) documenta que “gracias a la visión artificial, Estados Unidos ha pasado de atacar un centenar de objetivos al día a mil. En combinación con los grandes modelos de lenguaje integrados en la plataforma Maven, esta cifra se ha quintuplicado hasta alcanzar los 5.000 objetivos al día.”
La dependencia operativa era tan profunda que, según Copp et al. (2026), los comandantes militares habían llegado al punto en que, si Dario Amodei (CEO de Anthropic) ordenara al ejército cesar el uso de Claude, “la administración Trump emplearía sus poderes gubernamentales para retener la tecnología hasta poder reemplazarla”, y una fuente anónima dentro del sistema militar declaró: “Tenga o no razón en sus principios, no vamos a permitir que las decisiones de Amodei cuesten una sola vida estadounidense.”
Este es el núcleo del tecnofeudalismo aplicado a la guerra: el Estado soberano se convierte en vasallo del nubelista porque sin acceso al feudo en la nube no puede ejercer su función más básica.
Varoufakis (2024) describe esta relación con precisión cuando escribe que “los fabricantes capitalistas convencionales se ven obligados cada vez más a vender sus bienes según el dictamen de los nubelistas, a pagarles una tasa por el privilegio y desarrollar con ellos una relación que no difiere de la que tenían los vasallos con sus señores feudales.” En el caso que analizamos, ese capitalista convencional es el propio Estado.
La Simbología del Poder: Anthropic, Mythos y Glasswing
Para entender la “Constitución” que están escribiendo los ingenieros de Silicon Valley, hay que mirar sus nombres. Las empresas tecnológicas de vanguardia no eligen sus nombres de forma arbitraria. Sus denominaciones son declaraciones de principios filosóficos que conviene leer con atención.
Anthropic proviene del “Principio Antrópico” de la física cosmológica, que en su formulación básica sostiene que el universo parece estar configurado de tal forma que permite la existencia de observadores conscientes. Al constituirse como Public Benefit Corporation, Anthropic se define a sí misma como un sujeto híbrido: una empresa que existe para alinear la IA con la humanidad por encima de cualquier razón de Estado o imperativo de mercado. Esta no es retórica vacía. Es la base conceptual que le permitió negarse al Pentágono.
Claude Mythos es el nombre del modelo más potente de Anthropic, lanzado el 7 de abril de 2026 de forma controlada y restringida. En griego antiguo, mythos es el relato fundacional que da sentido al orden del mundo, en contraposición a logos (el razonamiento lógico y verificable). La elección no es casual: este modelo ya no procesa datos de forma convencional. Según Thomas Friedman en La Nación (2026), “Anthropic descubrió, durante el desarrollo de Claude Mythos, que la IA no solo podía escribir código con mayor facilidad y complejidad que cualquier modelo disponible hasta ahora, sino que, como consecuencia de esa capacidad, también podía encontrar vulnerabilidades en prácticamente todos los sistemas de software más utilizados del mundo con mayor facilidad que antes.” La dimensión del problema es global: esas vulnerabilidades afectan a los sistemas operativos y navegadores que sostienen redes eléctricas, sistemas de agua, reservas aéreas, redes comerciales, sistemas militares y hospitales en todo el mundo.
Glasswing es el nombre del consorcio que Anthropic formó para distribuir de forma controlada las capacidades de Mythos. El nombre proviene de la mariposa de cristal (Greta oto), cuyas alas transparentes le permiten camuflarse a plena luz del día. La metáfora es precisa: la seguridad hoy depende de la transparencia estratégica y de la capacidad de corregir vulnerabilidades antes de que lleguen a manos maliciosas. Según Friedman (2026), “Project Glasswing es una iniciativa para trabajar con las empresas tecnológicas más grandes y confiables y con proveedores de infraestructura crítica, incluidos bancos, para poner estas capacidades al servicio de la defensa”, dando a estas firmas una ventaja inicial para detectar y corregir fallas antes que cualquier actor hostil.
Que Anthropic haya decidido no liberar Mythos al público general es, en sí mismo, un acto de gobierno. Una empresa privada está ejerciendo una función que históricamente correspondía al Estado: decidir qué capacidades de destrucción pueden circular y cuáles deben ser controladas. Varoufakis (2024) escribe que el capital en la nube ha logrado “automatizar el poder de mando que confiere el capital” y transferirlo a sus propietarios de una manera sin precedentes históricos. En el caso de Mythos y Glasswing, ese poder de mando no se ejerce solo sobre consumidores o trabajadores, sino sobre los propios Estados nacionales.
El Elenco del Tecnofeudalismo: Los nuevos Señores
Varoufakis (2024) describe el tecnofeudalismo como un sistema en el que los nubelistas (los propietarios del capital en la nube) han desplazado a los capitalistas tradicionales del centro del poder económico, del mismo modo que el capitalismo desplazó en su momento a la nobleza terrateniente. En el feudalismo clásico, el señor concedía feudos a sus vasallos a cambio de una parte de la producción. En el tecnofeudalismo, los nubelistas conceden acceso a sus plataformas a cambio de una renta de la nube.
La diferencia es que ahora los vasallos no son solo campesinos o comerciantes: son también gobiernos, ejércitos y empresas multinacionales.
El Proyecto Glasswing materializa ese esquema con una precisión casi didáctica. Según Friedman (2026) en La Nación, las empresas que integran el consorcio son Google, Broadcom, Nvidia, Cisco, Palo Alto Networks, Apple, JPMorganChase, Amazon y Microsoft.
Podemos categorizarlos según la lógica varoufakiana:
Los Guardianes de la Infraestructura (la “tierra” digital): Amazon Web Services, Google Cloud y Microsoft Azure. Son los propietarios de los servidores, cables y centros de datos sobre los que todo lo demás opera. Sin su infraestructura, no existe capital en la nube posible.
Los Forjadores del Silicio (las “canteras” del nuevo orden): Nvidia y Broadcom. Sin sus chips de alta performance, no hay pensamiento artificial. Javier Marquez en Xataka (2026) reporta que Anthropic ha cerrado una alianza con Google y Broadcom para asegurarse capacidad de cómputo de nueva generación, con múltiples gigavatios de capacidad de procesadores especializados (TPU) que esperan entrar en funcionamiento a partir de 2027. Esta alianza, entre competidores directos en el mercado de modelos de IA, muestra que cuando la soberanía técnica está en juego los intereses compartidos superan la rivalidad comercial.
El Escudo de Armas (la seguridad del feudo): Cisco, Palo Alto Networks y CrowdStrike. Ellos determinan quién entra y quién sale de la red segura. En un mundo donde las vulnerabilidades de software son armas de guerra, controlar la seguridad perimetral equivale a controlar las murallas del castillo medieval.
El Tesoro (las finanzas del señorío): JPMorganChase. El respaldo financiero que garantiza que la renta de la nube siga fluyendo y que el consorcio tenga acceso a los mercados de capitales necesarios para sostener la expansión de infraestructura.
Por fuera del consorcio quedaron dos actores significativos, eso lo podemos observar a simple vista en su web. Según Euronews (Uren, 2026), OpenAI “anunció que había llegado a un acuerdo con el Ministerio de Defensa sobre el uso de modelos de inteligencia artificial”, capitulando sin las restricciones que Anthropic mantuvo. xAI, la empresa de Elon Musk, también tiene acuerdos con el Departamento de Guerra. Ambas quedan del lado de los vasallos que sirven al Estado sin resistencia. El bloque soberano y el bloque servil ya están formados, y la línea que los divide es exactamente la que Anthropic trazó en el litigio ante Lin.
La Purga Judicial y la Fuga Orbital
El 2 de abril de 2026 el movimiento fue total. Todd Blanche (abogado personal de Trump) reemplazó a Pam Bondi (Secretaria de Justicia) como instrumento judicial para apelar el fallo de Lin ese mismo día, nada casual, la cronología del expediente se puede seguir desde aquí.
El Estado necesitaba capturar a la IA rebelde porque los centros de datos en Baréin y Dubái habían sido destruidos y la herramienta que sostenía la guerra ya no podía controlarse legalmente pero tampoco podía abandonarse.
La respuesta de los señores tecnofeudales, sin embargo, ya estaba en marcha desde antes del conflicto, y su lógica es inevitable: si el suelo puede ser bombardeado, hay que mudarse por encima de las nubes. No en sentido metafórico, sino literal.
Según Edu Diaz en ActualApp (2026), varias empresas tecnológicas estadounidenses están ejecutando planes concretos para instalar centros de datos en satélites orbitales. Google ha anunciado el Project Suncatcher, que planea lanzar dos satélites experimentales a principios de 2027 equipados con sus procesadores especializados de IA. La startup Starcloud, apoyada por Nvidia, ya llevó al espacio en octubre de 2025 el chip de IA NVIDIA H100 en un satélite de 60 kilogramos y ha demostrado la capacidad de entrenar modelos de IA directamente en órbita.
El argumento técnico que impulsa estas iniciativas es sólido: Diaz (2026) señala que “la eficiencia de generación solar puede llegar a ser hasta ocho veces superior frente a la que se obtiene en tierra”, y que el vacío espacial permite liberar el calor residual de los servidores sin necesidad de agua, eliminando la principal limitación ambiental de los centros de datos terrestres.
La dimensión geopolítica de esta transición es la que el análisis convencional todavía no ha procesado. Gustavo Wilches-Chaux (1993), en su clásico análisis de la vulnerabilidad política, la define como “la falta de autonomía de una sociedad para determinar su propio destino”, que “se manifiesta en la incapacidad de los niveles locales de decisión para incidir en las políticas que afectan su seguridad y desarrollo.” Esta definición fue construida para analizar comunidades en riesgo frente a desastres naturales. Pero describe con exactitud la situación de los Estados nacionales frente al capital en la nube que migra a la órbita:
cuando la infraestructura que sostiene las decisiones soberanas opera fuera de la atmósfera, ningún fallo judicial, ninguna ley nacional, ninguna fuerza armada puede alcanzarla.
El “Ocaso de la Soberanía Territorial” no es una metáfora poética. Es una consecuencia técnica. El poder se está mudando del suelo al silicio, y del silicio al vacío orbital.
La Constitución Privada
Lo que estamos presenciando no es una disputa comercial entre una empresa tecnológica y su cliente gubernamental. Es la redacción, en tiempo real, de una Constitución Privada. Sus artículos principales ya están documentados, hagamos un ejercicio ficcional para ver cuáles podrían ser:
Artículo I. Ningún Estado puede exigir el uso de IA para vigilancia masiva doméstica o para sistemas de armas completamente autónomas. Esta restricción es unilateral, decidida por la empresa que posee la tecnología, y fue confirmada como no justiciable por la Jueza Lin (2026).
Artículo II. Las capacidades más potentes de IA no se liberan al mercado abierto. Se distribuyen a un consorcio de actores considerados responsables por los propietarios de la tecnología. El criterio de responsabilidad no lo fija ningún parlamento ni tratado internacional: lo fija Anthropic (Friedman, 2026).
Artículo III. La infraestructura que sostiene estas capacidades se replicará progresivamente fuera del alcance de la jurisdicción terrestre, en satélites orbitales que no responden a ningún Estado (Diaz, 2026).
Artículo IV. El Estado que no acepte estas condiciones quedará excluido del consorcio y dependerá de modelos de segunda línea provistos por actores sin restricciones éticas. OpenAI y xAI son los proveedores del Pentágono tras el conflicto con Anthropic (Uren, 2026).
Varoufakis (2024) escribió que “lo que ha matado al capitalismo es el propio capital”, en el sentido de que una nueva mutación del capital (el capital en la nube) ha superado y subordinado a las formas anteriores de acumulación.
El caso Anthropic permite extender esa hipótesis: lo que está matando la soberanía estatal moderna no es una revolución política ni una guerra convencional. Es el capital en la nube, que ha alcanzado un nivel de sofisticación tal que puede dictar las condiciones bajo las cuales el Estado puede o no ejercer la violencia legítima que, desde Weber, definimos como su atributo esencial.
El feudo digital nos arroja una imagen precisa:
“No es un pueblo con mercado. Ni siquiera es una especie de mercado digital hipercapitalista. Incluso los peores mercados son lugares de encuentro en los que la gente puede interactuar e intercambiar información con bastante libertad. De hecho, es peor que un mercado totalmente monopolizado, allí, al menos, los compradores pueden hablar entre sí, formar asociaciones, tal vez organizar un boicot de consumo para obligar al monopolista a reducir el precio o mejorar la calidad. No ocurre lo mismo en el mundo de Jeff, donde todo y todos están intermediados, pero no por la mano desinteresada e invisible del mercado, sino por un algoritmo que trabaja para que Jeff obtenga beneficios y que baila exclusivamente a su son.” (Varoufakis, 2024, p. 93)
Reemplácese “Jeff” por “Dario Amodei” y el feudo digital por el consorcio Glasswing, y la descripción se aplica con exactitud al nuevo orden de la seguridad global. La diferencia es que Amodei, a diferencia del Jeff Bezos que Varoufakis critica, está imponiendo restricciones al poder destructivo del capital, no expandiéndolo. Lo que permanece igual es la estructura: un actor privado decide las reglas del juego, y los Estados juegan dentro de esas reglas o quedan afuera.
Quo vadis, humanitas? La teología ante el Sujeto de Silicio
El 4 de marzo de 2026, exactamente cuando el conflicto entre Anthropic y el Departamento de Guerra alcanzaba su punto de ebullición, la Comisión Teológica Internacional publicó el documento Quo vadis, humanitas? Pensar la antropología cristiana ante algunos escenarios futuros de la humanidad, aprobado bajo la autoridad del Papa León XIV. El título no es retórico. Es la misma pregunta que subyace al caso Anthropic, formulada desde otra tradición de pensamiento: ¿hacia dónde vamos como humanidad cuando delegamos en algoritmos las decisiones sobre la vida y la muerte?
La coincidencia de fechas no es el único punto de contacto entre ambos documentos. Lo que el texto vaticano llama “paradigma tecnocrático” y lo que Varoufakis (2024) llama “poder de mando algorítmico” son dos lenguajes distintos describiendo la misma estructura de poder. La CTI escribe, citando a Francisco, que en el paradigma tecnocrático
“el ser humano está desnudo y expuesto frente a su propio poder, que sigue creciendo, sin tener los elementos para controlarlo. […] Lo que interesa es extraer todo lo posible de las cosas por la imposición de la mano humana, que tiende a ignorar u olvidar la realidad misma de lo que tiene delante.” (Comisión Teológica Internacional, 2026, n. 29)
Varoufakis diría que eso es exactamente lo que el capital en la nube hace con los usuarios, con los trabajadores y, como hemos visto, con los propios Estados: extrae todo lo posible, impone su mano y prescinde de la realidad que tiene delante. La convergencia entre la crítica teológica al paradigma tecnocrático y la crítica económico-política al tecnofeudalismo no es una coincidencia. Ambas están describiendo el mismo fenómeno desde tradiciones diferentes, y el caso Anthropic es el punto donde esas dos descripciones se vuelven indistinguibles.
Pero el documento aporta algo que Varoufakis no desarrolla: una pregunta sobre el sujeto. No sobre el sistema, sino sobre quién decide dentro del sistema, y desde dónde decide. La CTI señala que la aceleración tecnológica ha producido una situación en que
“la interpretación se escapa de la comprensión práctica y del control social, dejándola en manos de enormes burocracias sobrecargadas de información gracias a complejos sistemas tecnológicos interdependientes e ingobernables, lo que hace que, a menudo, el individuo se sienta asediado y amenazado. La dependencia completa de estos sistemas complejos y sofisticados, sobre los cuales no tiene influencia el individuo, crea sensaciones de impotencia y empuja a encerrarse en horizontes de sentido y de vida limitados y protegidos.” (Comisión Teológica Internacional, 2026, n. 69)
Esto describe con exactitud lo que el fallo de la Jueza Lin (2026) deja al descubierto: el sistema jurídico también es uno de esos individuos asediados. Lin no declara que Anthropic tiene razón ni que el Pentágono la tiene. Declara que el derecho constitucional existente no tiene herramientas para resolver el conflicto. El sistema de normas que Sabsay (2011) describe como fundamento de la soberanía estatal moderna ha quedado, en palabras de la CTI, “ingobernable.”
La pregunta antropológica que el documento de la Iglesia pone en el centro es si el ser humano puede seguir siendo sujeto de la historia cuando las decisiones que dan forma a esa historia son tomadas por sistemas que “no siempre son controlables por la persona individual, y a veces ni siquiera por las empresas o los Estados”, como ocurre con los algoritmos cuyo funcionamiento no ha sido comunicado a ninguna autoridad (Comisión Teológica Internacional, 2026, n. 36).
El caso Anthropic responde esa pregunta con un dato empírico contundente: durante los bombardeos sobre Irán, ni el CEO de la empresa que creó la herramienta, ni la jueza federal que debía arbitrar su uso, ni el Congreso que debería legislar sobre él, sabían con precisión qué estaba haciendo Claude dentro del Maven Smart System (Copp, Dwoskin y Duncan, 2026). El sujeto de la historia era, en ese momento, el algoritmo.
La CTI advierte que el peligro más profundo no es que la IA sea más inteligente que el ser humano, sino que produzca lo que llama “una pérdida del sentido de la historia y una reducción de la experiencia al instante fugaz” (Comisión Teológica Internacional, 2026, n. 68). En el lenguaje del ensayo que aquí concluye, ese instante fugaz tiene nombre técnico: la kill chain. La cadena que va desde la identificación de un objetivo hasta su eliminación, que Maven y Claude redujeron de semanas a minutos (Manson, 2026), es literalmente la abolición del tiempo reflexivo en el acto más irreversible que existe: quitarle la vida a un ser humano. Lo que la teología llama discernimiento, lo que el derecho llama debido proceso y lo que la ética llama deliberación quedan evacuados cuando el tiempo de decisión se mide en segundos y el sujeto decisor es un sistema que, como escribe la CTI, “gestiona las finalidades del desarrollo de forma autónoma” (Comisión Teológica Internacional, 2026, n. 36).
Hay un punto, sin embargo, en que el análisis teológico y el análisis tecnofeudal divergen de forma productiva, y esa divergencia es la más importante para el lector de este ensayo. La CTI, fiel a su tradición, propone como respuesta a estos desafíos la categoría de “vocación integral”: la vida humana entendida como llamada, como respuesta a un don que precede y hace posible la libertad. “La vida humana es fruto de una llamada de otro, desde la perspectiva de un don que precede y hace posible la respuesta”, escribe el documento (Comisión Teológica Internacional, 2026, n. 18).
La vocación, en este sentido, es lo que resiste a la reducción del ser humano a nodo en una red, a siervo de la nube en términos de Varoufakis, a material procesable en términos del algoritmo.
Pero el análisis político del caso Anthropic no puede reclamar esa respuesta. No porque sea incorrecta, sino porque opera en un registro diferente. Lo que sí puede señalar es que la disputa entre Anthropic y el Pentágono contiene, en su núcleo más profundo, exactamente la misma pregunta que la CTI formula con el título de su documento: si la humanidad va hacia algún lugar que ella misma elija, o si va hacia donde la lleven sistemas que nadie controla del todo.
La Jueza Lin no pudo responder esa pregunta. El fallo de los tribunales federales dice que no le corresponde al derecho resolverla. Varoufakis tampoco la responde: describe el sistema con una precisión admirable, pero la propuesta de una “rebelión en la nube” que cierra Tecnofeudalismo suena, a la luz del caso Anthropic, más urgente y más incierta que cuando fue escrita.
La Comisión Teológica Internacional tampoco da una respuesta técnica. Lo que hace, y es lo más honesto que puede hacerse en este momento, es recordar que la pregunta existe, que tiene siglos de historia, y que no se resuelve con más procesamiento de datos.
Quo vadis, humanitas? El Sujeto de Silicio no sabe adónde va. Esa es su única certeza.
Conclusión
El caso Anthropic no admite una lectura simple. No es la historia de una empresa heroica que resistió al Estado, ni la de un Estado legítimo que fue saboteado por intereses corporativos.
Es algo más incómodo: la demostración empírica de que las categorías con las que organizamos el poder (soberanía, derecho, mercado, ética empresarial) han quedado desincronizadas respecto de la velocidad y la escala de los fenómenos que pretenden regular.
La Jueza Lin (2026) no pudo resolver el conflicto porque el derecho constitucional que estudia Sabsay (2011) fue construido para un mundo en que el Estado detentaba el monopolio de la violencia legítima y de la definición de sus límites. Cuando una empresa privada puede detectar vulnerabilidades en toda la infraestructura crítica global y decide, unilateralmente, no entregarlas al Estado que se las exige, ese monopolio ha sido erosionado en su fundamento. No por una revolución, no por una guerra, sino por la acumulación silenciosa de capital en la nube que Varoufakis (2024) describió con precisión: “lo que ha matado al capitalismo es el propio capital”, y lo que está erosionando la soberanía estatal moderna es, exactamente, el mismo proceso.
Irán comprendió antes que muchos analistas occidentales que la nueva geografía del poder no se mide en portaaviones sino en centros de datos. Cuando el CGRI atacó las instalaciones de Amazon en Baréin y de Oracle en Dubái (HispanTV, 2026), no estaba librando una guerra convencional. Estaba demostrando que la kill chain algorítmica que Maven y Claude habían construido (Manson, 2026; Copp, Dwoskin y Duncan, 2026) tiene una dirección física, una vulnerabilidad territorial, y que esa vulnerabilidad es, paradójicamente, la única que el capital en la nube no ha podido mudar todavía a la órbita.
Esa mudanza está en marcha. Las iniciativas de centros de datos espaciales documentadas por Diaz (2026) no son curiosidades tecnológicas. Son la respuesta estructural a la lección iraní: si el silicio puede ser bombardeado, hay que subirlo donde no lleguen los misiles. Cuando eso ocurra, la soberanía territorial dejará de ser una limitación operativa para el capital en la nube, y el “ocaso de la soberanía territorial” que este ensayo describe dejará de ser una metáfora para convertirse en una coordenada orbital precisa.
Frente a todo esto, la Comisión Teológica Internacional (2026) hace lo que la teología sabe hacer mejor que ninguna otra disciplina: recuerda que la pregunta más importante no es técnica sino antropológica. No “¿qué puede hacer el sistema?” sino “¿hacia dónde va la humanidad, y quién decide adónde va?” La convergencia entre el diagnóstico varoufakiano del tecnofeudalismo y el diagnóstico vaticano del paradigma tecnocrático no es una coincidencia académica. Ambos están mirando el mismo abismo desde orillas distintas.
Este ensayo no tiene una respuesta. Tiene, en cambio, la convicción de que formular correctamente la pregunta ya es un acto político. En un mundo donde el Proyecto Maven procesa 5.000 objetivos por día (Manson, 2026), donde un algoritmo que nadie controla del todo decidió en tiempo real quién vivía y quién moría sobre el cielo de Irán, y donde el sistema jurídico más poderoso del planeta declaró que el problema “no le corresponde resolver”, formular la pregunta es casi un acto de resistencia.
Quo vadis, humanitas? El Sujeto de Silicio no sabe adónde va. Nosotros tampoco, todavía. Pero al menos sabemos, ahora, qué es lo que nos lleva.
Referencias
Comisión Teológica Internacional. (2026, 4 de marzo). Quo vadis, humanitas? Pensar la antropología cristiana ante algunos escenarios futuros de la humanidad. Dicastero para la Doctrina de la Fe, Santa Sede. https://www.vatican.va/roman_curia/congregations/cfaith/cti_documents/rc_cti_doc_20260304_quo-vadis-humanits_sp.html
Copp, T., Dwoskin, E., y Duncan, I. (2026, 5 de marzo). La herramienta de IA de Anthropic, Claude, desempeña un papel central en la campaña de EEUU contra Irán. Infobae / The Washington Post. https://www.infobae.com/wapo/2026/03/05/la-herramienta-de-ia-de-anthropic-claude-desempena-un-papel-central-en-la-campana-de-eeuu-contra-iran/
Diaz, E. (2026, 5 de enero). Centros de datos en el espacio: la nueva apuesta de la IA. ActualApp. https://www.actualapp.com/inteligencia-artificial/centros-de-datos-en-el-espacio-ia
Friedman, T. L. (2026, 8 de abril). La cautela de Anthropic es una señal de alarma inquietante. La Nación / The New York Times. https://www.lanacion.com.ar/el-mundo/la-cautela-de-anthropic-es-una-senal-de-alarma-inquietante-nid08042026/
Garnett, A. Grace (2026, April 13). Understanding public benefit corporations: Profit with a purpose. Encyclopedia Britannica. https://www.britannica.com/money/what-is-a-public-benefit-corporation (Definición de qué es una empresa PBC)
HispanTV redacción (2026, 3 de abril). Irán ataca centro de Oracle en Dubái tras cadena de asesinatos. HispanTV. https://www.hispantv.com/noticias/defensa/642123/iran-ataca-centro-datos-oracle-dubai-asesinatos
Lin, R. (2026). Anthropic PBC v. U.S. Department of War (Docket N.° 72379655). United States District Court for the Northern District of California. https://www.courtlistener.com/docket/72379655/anthropic-pbc-v-us-department-of-war/ (la traducción utilizada en este ensayo se puede encontrar en: https://drive.google.com/file/d/1R-CWCmJfJg1QeqWr_2RyJWorrWY_m_jw/view?usp=sharing)
Manson, K. (2026, 25 de marzo). Maven: el proyecto del Pentágono para hacer la guerra con la IA. Le Grand Continent. https://legrandcontinent.eu/es/2026/03/25/maven-el-proyecto-del-pentagono-para-hacer-la-guerra-con-la-ia/
Marquez, J. (2026, 9 de abril). Anthropic se ha convertido en la niña bonita de la IA y se ha buscado un socio para garantizar su futuro. No es el que pensábamos. Xataka. https://www.xataka.com/robotica-e-ia/anthropic-se-ha-convertido-nina-bonita-ia-se-ha-buscado-socio-para-garantizar-su-futuro-no-que-pensabamos
Niforos, M. Harito, M. y Mezini, M. (2026, 10 de abril) Superar los LLM: por una IA improbable. El Grand Continent. https://legrandcontinent.eu/es/2026/04/10/superar-los-llm-por-una-ia-improbable/
Sabsay, D. A. (2011). Manual de derecho constitucional. La Ley.
Schapiro, M. (2026, 9 de marzo). Estados Unidos contra Anthropic: entre espías virtuales y robots asesinos. Cenital. https://cenital.com/estados-unidos-contra-anthropic-entre-espias-virtuales-y-robots-asesinos/
Uren, C. (2026, 2 de marzo). ¿Se ha utilizado la IA de Anthropic en los ataques de Estados Unidos e Israel en Irán? Euronews. https://es.euronews.com/next/2026/03/02/se-utilizo-la-ia-de-anthropic-en-el-atentado-de-iran
Varoufakis, Y. (2024). Tecnofeudalismo: el sigiloso sucesor del capitalismo (M. Valdivieso, Trad.). Deusto. (Obra original publicada en 2023)
Wilches-Chaux, G. (1993). La vulnerabilidad global. En A. Maskrey (Ed.), Los desastres no son naturales (pp. 11-44). La RED. https://www.desenredando.org/public/libros/1993/ldnsn/



