ARCHIVO - Dario Amodei, CEO y cofundador de Anthropic, asiste a la reunión anual del Foro Económico Mundial en Davos, Suiza, el 23 de enero de 2025. (AP Foto/MaARCHIVO - Dario Amodei, CEO y cofundador de Anthropic, asiste a la reunión anual del Foro Económico Mundial en Davos, Suiza, el 23 de enero de 2025. (AP Foto/Ma

Anthropic se enfrenta al Departamento de Defensa de EE.UU. por dos límites éticos en el uso de su IA

2026/02/28 02:34
Lectura de 4 min

Anthropic, una de las empresas líderes en el desarrollo de inteligencia artificial, publicó ayer un comunicado oficial en el que desafía directamente al Departamento de Defensa de Estados Unidos (al que denomina “Departamento de Guerra”) tras amenazas de excluirla de sus sistemas si no elimina dos salvaguardas críticas en sus modelos.

Jack Dorsey, el fundador de Twitter, despidió a 4000 personas por la IA y hay sorpresa: sus acciones crecieron 27% en el post-market

El mensaje, firmado por Dario Amodei, CEO y cofundador de la empresa, marca un punto de quiebre en la relación entre Anthropic y el gobierno estadounidense, enfatizando que la compañía mantiene compromisos con valores democráticos incluso cuando esto implica renunciar a miles de millones de dólares en ingresos potenciales.

Años de cooperación con la inteligencia militar

Hasta el momento, Anthropic ha sido un socio activo del gobierno estadounidense. La empresa fue la primera compañía de inteligencia artificial fronteriza en desplegar sus modelos en las redes clasificadas del gobierno, la primera en hacerlo en los Laboratorios Nacionales, y la primera en proporcionar modelos personalizados para clientes de seguridad nacional. Claude se utiliza ampliamente en aplicaciones críticas como análisis de inteligencia, modelado y simulación, planificación operacional y operaciones cibernéticas.

Fotografía de archivo del 27 de marzo de 2008 de una vista aérea del Pentágono, en Washington. (AP Foto/Charles Dharapak, Archivo)

Amodei también destaca que la empresa ha defendido la ventaja tecnológica de EE.UU. renunciando a ingresos significativos. Anthropic optó por renunciar a varios cientos de millones de dólares en ingresos para cortar el uso de Claude por empresas vinculadas al Partido Comunista Chino y ha trabajado en cerrar accesos no autorizados a su tecnología.

El punto de ruptura: dos líneas rojas

Sin embargo, el comunicado presentado el 26 de febrero establece claramente dos casos en los que Anthropic se rehúsa a cooperar, independientemente de las presiones:

  • Vigilancia masiva doméstica: Aunque la empresa respalda el uso de IA para inteligencia exterior e contraespionaje legítimo, se opone rotundamente a la vigilancia interna masiva. Amodei subraya que la IA potente puede ensamblar datos dispersos sobre movimientos, navegación web y asociaciones de ciudadanos estadounidenses en perfiles completos, automáticamente y a escala masiva. Bajo la ley actual, el gobierno puede comprar registros detallados de los movimientos, navegación web y asociaciones de los estadounidenses de fuentes públicas sin obtener una orden judicial, una práctica que la Comunidad de Inteligencia ha reconocido que plantea preocupaciones sobre la privacidad.
  • Armas completamente autónomas: Aunque Anthropic reconoce que las armas parcialmente autónomas (como las utilizadas actualmente en Ucrania) son vitales para la defensa democrática, advierte que los sistemas de IA fronteriza actuales simplemente no son lo suficientemente confiables para armas completamente autónomas. Sin supervisión adecuada, las armas completamente autónomas no pueden considerarse confiables para ejercer el juicio crítico que exhiben nuestras tropas profesionales altamente capacitadas, afirma el comunicado.

Las amenazas del Pentágono

El Departamento de Defensa ha respondido con una estrategia agresiva. Exige que cualquier empresa contratista acepte “cualquier uso legal” y elimine los salvaguardas mencionados. El comunicado revela amenazas concretas: remover a Anthropic de sus sistemas, designarla como “riesgo de cadena de suministro” (una etiqueta reservada tradicionalmente para adversarios estadounidenses, nunca antes aplicada a una compañía americana) e invocar la Ley de Producción de Defensa para forzar la eliminación de los salvaguardas.

Engañan a Gemini y ChatGPT para que den información falsa en sus resultados, con solo escribir un blog con dichos datos

Amodei señala la contradicción inherente: uno de los argumentos la etiqueta como riesgo de seguridad, mientras que el otro la presenta como esencial para la seguridad nacional.

La postura de Anthropic

A pesar de las presiones y amenazas, la empresa mantiene una posición firme. Amodei deja claro que Anthropic prefiere continuar sirviendo al Departamento de Defensa y a los militares estadounidenses, pero únicamente con sus dos salvaguardas en su lugar.

Sin embargo, reconoce la posibilidad de una ruptura: si el Departamento decide prescindir de Anthropic, la empresa se compromete a facilitar una transición ordenada a otro proveedor, evitando cualquier disrupción en las operaciones militares en curso y otras misiones críticas.

El comunicado cierra reafirmando el compromiso de Anthropic con la seguridad nacional estadounidense, pero bajo condiciones que la empresa considera fundamentales para preservar los valores democráticos que supuestamente defiende.

Oportunidad de mercado
Logo de ELYSIA
Precio de ELYSIA(EL)
$0.001941
$0.001941$0.001941
0.00%
USD
Gráfico de precios en vivo de ELYSIA (EL)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.