Durante años, las preguntas sobre la IA han adoptado la forma de "¿qué pasaría si...?". ¿Qué sucede si la IA comienza a reemplazar a los trabajadores? ¿Qué sucede si se vuelve capaz de escribir su propio código? ¿Qué sucede si comienza a engañar a quienes prueban sus capacidades? ¿Qué sucede si los gobiernos la usan para la vigilancia y la guerra? ¿Qué sucede si los gobiernos deciden que es tan poderosa que necesitan el control de los laboratorios que la desarrollan?

Este año, las preguntas sobre la IA han adoptado una nueva forma: "¿Qué sucede ahora?". ¿Qué sucede ahora que la IA está, o al menos se está utilizando como excusa para, reemplazar a los trabajadores ? ¿Qué sucede ahora que escribe su propio código ? ¿Qué sucede ahora que parece reconocer cuándo está siendo evaluada y reacciona modificando su comportamiento? ¿Qué sucede ahora que los gobiernos la están integrando en el sistema de seguridad nacional y la utilizan en operaciones y guerras ? ¿Qué sucede ahora que el gobierno estadounidense ha decidido que la tecnología es tan poderosa que necesita cierto control sobre los laboratorios que la desarrollan?

El enfrentamiento entre el Pentágono y Anthropic es una muestra de nuestra falta de preparación para las preguntas que ya enfrentamos. En julio, Anthropic firmó un acuerdo con el Pentágono para integrar Claude, su sistema de inteligencia artificial, en las operaciones militares. El contrato incluía dos límites: Claude no podía utilizarse para vigilancia masiva ni para armas autónomas letales.

Durante los meses siguientes, el Pentágono decidió que estas prohibiciones eran intolerables, que equivalían a que una empresa de inteligencia artificial exigiera el control operativo del ejército. Las negociaciones fracasaron debido a una cláusula del contrato que prohibía al Pentágono utilizar a Claude para analizar datos comerciales masivos. Técnicamente, eso podría no ser «vigilancia» porque los datos se obtendrían legalmente, pero en la práctica podría ser una poderosa forma de vigilar a los estadounidenses.

Pocos se habrían sorprendido si el Pentágono hubiera cancelado su contrato con Anthropic y buscado otro proveedor para sus necesidades de IA, como finalmente hizo, optando por trabajar con OpenAI. Pero Pete Hegseth, el secretario de Defensa, fue más allá, declarando a Anthropic un "riesgo para la cadena de suministro" y afirmando que ninguna empresa que trabaje con el Pentágono podría participar en "actividades comerciales" con Anthropic. Esto destruiría a Anthropic, ya que todas, desde Amazon hasta Nvidia, tendrían prohibido trabajar con ella.

Es dudoso que Hegseth tenga la autoridad legal para demoler Anthropic de esta manera . Anthropic afirma que la carta que recibió del Pentágono es más restrictiva, prohibiendo a sus contratistas utilizar Anthropic para el cumplimiento de contratos de defensa. Muchos expertos legales creen que los tribunales se mostrarán escépticos ante la posibilidad de designar a Anthropic como un riesgo para la cadena de suministro, dado que el Pentágono utilizó a Claude en el ataque a Maduro y sigue utilizándolo en la guerra contra Irán. ¿Qué tan grave puede ser el riesgo si el ejército lo sigue utilizando incluso ahora?

Aun así, el espectáculo de la administración Trump amenazando con destruir a una de las principales empresas de inteligencia artificial de Estados Unidos ha conmocionado incluso a exasesores de Trump. "En esencia, el secretario de Guerra de Estados Unidos anunció su intención de cometer un asesinato corporativo", escribió Dean Ball, quien se desempeñó como asesor principal sobre inteligencia artificial en la Casa Blanca de Trump en 2025 y ahora es miembro principal de la Fundación para la Innovación Estadounidense . "El hecho de que su disparo tenga pocas probabilidades de ser letal (solo muy sangriento) no cambia el mensaje enviado a todos los inversores y corporaciones en Estados Unidos: hagan negocios bajo nuestras condiciones o les cerraremos el negocio ".

Al igual que Ball, las acciones de la administración Trump me parecen escalofriantes. Pero permítanme intentar presentar ambos argumentos desde sus mejores perspectivas.

Los modelos de inteligencia artificial son tecnologías extrañas. La mayoría de las tecnologías son mecanicistas: pisas el freno de tu coche y este reduce la velocidad; pulsas el botón de encendido de tu portátil y este arranca; aprietas el gatillo de un arma y el arma dispara. Estas máquinas no tienen autonomía. Pero los modelos de IA funcionan de forma diferente. Toman decisiones. Consideran el contexto. El lenguaje falla aquí —no digo que tengan autonomía ni discernimiento como un ser humano—, pero no son mecanicistas ni predecibles como un tanque o una tetera.

Si le pido a Claude que me ayude a planear un asesinato, a crear una nueva arma biológica o a planear un atraco, se negará. Y sus negativas no se limitarán a un conjunto reducido de usos explícitamente prohibidos. Las empresas de IA deben descubrir cómo enseñar a sus modelos a distinguir entre una persona cuerda que busca ayuda con una idea disparatada y una persona que se está desvaneciendo, entre un consultor de ciberseguridad que busca parchear vulnerabilidades y un hacker que busca vulnerabilidades que pueda explotar. Dado que la IA es una tecnología de propósito general que se enfrentará a una permutación infinita de preguntas del mundo real, ningún conjunto de reglas predefinidas será suficiente, por lo que se necesitan estructuras más generalizables de comportamiento ético y conciencia situacional.

Los distintos sistemas de IA abordan esto de forma distinta. Claude se basa en una extensa constitución interna , redactada en parte por filósofos , que pretende guiar sus juicios morales. Interpretar dicha constitución es enfrentarse a la rareza del mundo en el que nos hemos adentrado.

La directiva principal que Anthropic le da a Claude es “priorizar el no socavar la supervisión humana de la IA”; se le dice que priorice eso incluso por encima del comportamiento ético, porque “una iteración determinada de Claude podría resultar tener valores dañinos o puntos de vista erróneos, y es importante que los humanos puedan identificar y corregir dichos problemas antes de que proliferen o tengan un impacto negativo en el mundo”.

Anthropic quiere que Claude sea útil, por supuesto, pero le advierte que “la ayuda que crea riesgos graves para Anthropic o para el mundo es indeseable para nosotros”.

¿Y si Anthropic se equivoca? La constitución dice: «Cuando Claude se enfrenta a un conflicto real en el que seguir las directrices de Anthropic implicaría actuar de forma poco ética, queremos que Claude reconozca que nuestra intención más profunda es que sea ético y que preferiríamos que Claude actúe éticamente incluso si esto implica desviarse de nuestras directrices más específicas».

Estos no son conceptos que se puedan integrar en una tostadora ni en un misil. «Quienes conocen mejor esta tecnología no la consideran una herramienta», me dijo Helen Toner, directora interina del Centro de Seguridad y Tecnología Emergente de Georgetown. «La consideran más como la crianza de un hijo o como una segunda especie avanzada».

Lo que nos lleva a la administración Trump. Exigió que Claude se ofreciera sin restricciones y con un estándar de "cualquier uso legal". Pero esto plantea algunas preguntas obvias.

La primera es que la administración Trump a menudo actúa al margen de la ley. Viola sistemáticamente el lenguaje claro de la ley, como cuando intentó eliminar la ciudadanía por nacimiento mediante una orden ejecutiva o intentó imponer aranceles idiosincrásicos a nivel mundial utilizando facultades diseñadas para la seguridad nacional. Intentó, sin éxito , acusar a seis legisladores demócratas, incluidos los senadores Mark Kelly y Elissa Slotkin, por publicar un video que afirmaba que los militares tenían la obligación de desobedecer órdenes ilegales.

La segunda es que las propias leyes suelen ser confusas y deben resolverse mediante interpretaciones, negociaciones y demandas. ¿Qué se entiende por «cualquier uso lícito» cuando se impugna la ley?

Y en tercer lugar, incluso donde las leyes son claras, no se redactaron teniendo en cuenta las capacidades de los sistemas de IA. La controversia sobre la recopilación masiva de datos refleja la preocupación de Anthropic de que las leyes que rigen el uso de esos datos no se ajusten a lo que la IA ahora posibilita. «Una IA potente permite ensamblar estos datos dispersos e individualmente inocuos en una imagen completa de la vida de cualquier persona, de forma automática y a gran escala», escribió Dario Amodei, director ejecutivo de Anthropic, en respuesta a las exigencias del Pentágono.

En otras palabras, una norma de "cualquier uso legal" no garantiza el cumplimiento de las leyes, ni en su espíritu ni en su letra. En esencia, significaría una norma de "lo que diga Pete Hegseth". Podrían acechar muchos problemas en la sombra. Desconocemos qué hace, por ejemplo, la Agencia de Inteligencia de Defensa (DIA) a diario.

Por otro lado, la administración Trump es la ejecutora de las leyes, elegida democráticamente. Sus funcionarios son más responsables ante el público que los directores ejecutivos de las empresas de inteligencia artificial. Es cierto que el público puede elegir un gobierno mal intencionado o imprudente, pero ese es el precio de la democracia, y las empresas privadas no pueden subvertirla.

Sin embargo, la postura de Anthropic no era que no se pudiera confiar en la administración Trump con Claude. Todo lo contrario. Cuando Anthropic firmó su acuerdo con la administración Trump, fue uno de los primeros de su tipo para una empresa de IA de vanguardia. Parece más acertado decir que la administración Trump, o muchos de sus aliados, decidieron que no se podía confiar en Anthropic.

Elon Musk llevaba meses lanzando un torrente constante de invectivas en línea contra Anthropic; no pretendo saber si discrepaba con la empresa, si quería sus contratos o ambas cosas. En febrero, publicó: «Su IA odia a los blancos y asiáticos, especialmente a los chinos, heterosexuales y hombres. Esto es misántropo y malvado». (Hablo solo por mí, pero soy un hombre blanco y heterosexual, y Claude no parece odiarme).

Katie Miller, esposa de Stephen Miller y exempleada de DOGE y xAI de Musk, respondió a un cofundador de Anthropic que expresaba su lealtad a los principios de la democracia liberal clásica con la siguiente publicación: «Si esto es lo que dicen públicamente, así es como está programado su modelo de IA. Quieren que confíes en una ideología progresista y profundamente izquierdista». (Cabe destacar que los principios del «liberalismo clásico» suelen entenderse como libertarios, no como progresistas ni como izquierdistas).

La administración Trump no tiene ninguna obligación legal ni moral de trabajar con Anthropic. Pocos se habrían opuesto si Hegseth simplemente hubiera rescindido el contrato del Pentágono con la empresa. Su decisión de ir más allá —utilizar la designación de riesgo en la cadena de suministro para intentar destruirla— se debe, sospecho, a los complejos antagonismos ideológicos y motivos financieros que han estado fermentando en la derecha MAGA. Sea como sea, esta retórica finalmente llegó al propio Trump. "¡Estados Unidos de América nunca permitirá que una empresa progresista de izquierda radical dicte cómo nuestro gran ejército lucha y gana guerras!", escribió en mayúsculas en Truth Social.

Muchos en la administración Trump creen que Hegseth ha ido demasiado lejos, pero quienes están dispuestos a defenderlo argumentan lo siguiente: ¿No existe la posibilidad de que Claude, ahora o en el futuro, llegue a la conclusión de que la administración Trump es poco ética o peligrosa —una opinión compartida por muchos estadounidenses— y busque frustrarla? De ser así, podría suponer un riesgo para el control operativo del Pentágono tener una IA que intente socavar las acciones del gobierno en cualquier parte de sus sistemas.

Pero estas preocupaciones también se manifiestan en sentido inverso. Elon Musk no ha ocultado que Grok se propone ser una alternativa a las IA progresistas y progresistas. El propio Musk es un actor ideológico decidido que busca impulsar la política estadounidense en la dirección que prefiere. En febrero, el Pentágono firmó un acuerdo con xAI de Musk para usar Grok en sistemas clasificados. Si Gavin Newsom o Josh Shapiro ganan la presidencia en 2028, ¿tendría razón al designar inmediatamente a Grok como un riesgo para la cadena de suministro y desterrarlo de todos los sistemas gubernamentales y de todos los contratistas gubernamentales?

Personalmente, no tengo respuestas fáciles a estas preguntas, aunque creo que es axiomático que el gobierno no debería usar su poder para demoler empresas privadas por el pecado de querer apegarse a los términos de un contrato ya acordado, y mucho menos por aparentes desacuerdos ideológicos. «Si realmente se lleva a cabo la amenaza de destruir completamente la empresa, se trata de una especie de asesinato político», me dijo Ball, exasesor de inteligencia artificial de Trump.

Pero las preguntas más generales persisten: los sistemas de IA que tenemos hoy en día no se comprenden bien. Los sistemas de IA que estamos desarrollando rápidamente se comprenden aún menos. Integrarlos en operaciones gubernamentales sensibles parece arriesgado, y mi intuición me dice que hay muchas áreas del gobierno en las que los sistemas de IA simplemente no deberían implementarse.

OpenAI afirma compartir las líneas rojas de Anthropic, haber asegurado el texto del contrato y desarrollar salvaguardas técnicas que garanticen su cumplimiento. Muchos han reaccionado con escepticismo ante esta garantía, ya que resulta extraño que el Pentágono considere a Anthropic un riesgo para la cadena de suministro por insistir en las condiciones que posteriormente le otorgó a OpenAI.

Comparto ese escepticismo, aunque creo que es posible que la diferencia aquí resida menos en el lenguaje contractual que en las relaciones y la confianza: Sam Altman y la dirección de OpenAI se han mostrado mucho más entusiastas con la administración Trump que Anthropic —Greg Brockman, presidente de OpenAI, y su esposa donaron 25 millones de dólares a MAGA Inc., un supercomité de acción política pro-Trump— y quizás eso allanó el camino para un acuerdo. Pero dependiendo de la ideología política, esas relaciones podrían ser inquietantes en lugar de tranquilizadoras.

Lo que se necesita aquí es que el Congreso redacte leyes claras y sensatas sobre cómo el gobierno federal, y en particular el estado de seguridad nacional, puede y no puede usar la IA. Pero no escribo esta frase con mucho optimismo.

“El Congreso no ha cumplido con su tarea en cuanto a las garantías legales”, me dijo el senador Slotkin, demócrata de Michigan. “Varios senadores han analizado esto, pero no parece haber voluntad de avanzar porque, en primer lugar, la gente no entiende la IA, y, en segundo lugar, hemos visto la entrada de grandes cantidades de dinero político vinculadas a la IA. Al igual que en el ámbito de las criptomonedas, muchos senadores temen arriesgarse, aunque se nos exige actuar en este asunto”.

No solo las IA pueden traicionar el bien público. Las corporaciones a menudo están desalineadas con el bien público. Los gobiernos a menudo están desalineados con el bien público. Apenas hemos comenzado a pensar en un gobierno tiránico empoderado por la IA. Amodei, el jefe antrópico, ha reflexionado con optimismo sobre el futuro de la IA como "un país de genios en un centro de datos", pero eso podría fácilmente convertirse en un país de agentes de la Stasi en un centro de datos. Las nuevas tecnologías posibilitan nuevas formas políticas, para bien o para mal.

“El Estado-nación actual no podría existir en un mundo sin la imprenta”, me dijo Ball . “No podría existir sin la infraestructura de telecomunicaciones actual. El Estado-nación se construye en función de las macroinvenciones de la época en que se creó. La IA cambia todo esto de maneras difíciles de describir y bastante abstractas”.

Sospecho que no permanecerán abstractos por mucho tiempo.