Etykieta „ryzyko łańcucha dostaw", potwierdzona w oświadczeniu Anthropic, obowiązuje ze skutkiem natychmiastowym i zabrania wykonawcom rządowym korzystania z technologii AnthropicEtykieta „ryzyko łańcucha dostaw", potwierdzona w oświadczeniu Anthropic, obowiązuje ze skutkiem natychmiastowym i zabrania wykonawcom rządowym korzystania z technologii Anthropic

Pentagon uznał Anthropic za zagrożenie w łańcuchu dostaw

2026/03/06 12:51
3 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem crypto.news@mexc.com

Pentagon nałożył w czwartek 5 marca formalną klasyfikację ryzyka łańcucha dostaw na laboratorium sztucznej inteligencji Anthropic, ograniczając wykorzystanie technologii, która według źródła była używana do operacji wojskowych w Iranie.

Etykieta „ryzyka łańcucha dostaw", potwierdzona w oświadczeniu Anthropic, weszła w życie natychmiast i zabrania wykonawcom rządowym wykorzystywania technologii Anthropic w ich pracy dla armii amerykańskiej.

Jednak firmy nadal mogą korzystać z Claude firmy Anthropic w innych projektach niezwiązanych z Pentagonem, napisał w oświadczeniu CEO Dario Amodei. Powiedział, że klasyfikacja ma „wąski zakres" i że ograniczenia dotyczą tylko wykorzystania sztucznej inteligencji Anthropic w kontraktach z Pentagonem.

„Dotyczy to wyraźnie tylko wykorzystania Claude przez klientów jako bezpośredniej części kontraktów z Departamentem Wojny, a nie całego wykorzystania Claude przez klientów, którzy mają takie kontrakty."

Klasyfikacja ryzyka następuje po wielomiesięcznym sporze dotyczącym uporu firmy w kwestii zabezpieczeń, które Departament Obrony, nazywany przez administrację Trumpa Departamentem Wojny, uznał za zbyt daleko idące. W swoim oświadczeniu Amodei powtórzył, że firma zakwestionuje tę klasyfikację w sądzie.

W ostatnich dniach Anthropic i Pentagon omawiały możliwe plany zaprzestania przez Pentagon wykorzystywania Claude, powiedział Amodei w czwartkowym oświadczeniu. Obie strony rozmawiały o tym, jak Anthropic może nadal współpracować z wojskiem bez demontowania swoich zabezpieczeń, dodał.

Jednak w poście na X późnym czwartkowym wieczorem, dyrektor ds. technologii Pentagonu Emil Michael powiedział, że nie toczą się żadne aktywne negocjacje Departamentu Obrony z Anthropic.

Amodei przeprosił również za wewnętrzną notatkę opublikowaną w środę przez portal technologiczny The Information. W notatce, pierwotnie napisanej w zeszły piątek, Amodei powiedział, że urzędnicy Pentagonu nie lubili firmy częściowo dlatego, że „nie wychwalaliśmy Trumpa w stylu dyktatorskim".

Publikacja wewnętrznej notatki nastąpiła w momencie, gdy inwestorzy Anthropic wyścigowo starali się ograniczyć szkody spowodowane konfliktem firmy z Pentagonem.

Departament Obrony nie odpowiedział natychmiast na prośby o komentarz.

Działanie to stanowiło nadzwyczajną naganę ze strony Stanów Zjednoczonych wobec amerykańskiej firmy technologicznej, która wcześniej niż jej konkurenci rozpoczęła współpracę z Pentagonem. Działanie to następuje w momencie, gdy departament nadal polega na technologii Anthropic w zapewnianiu wsparcia dla operacji wojskowych, w tym w Iranie, według osoby zaznajomionej ze sprawą.

Claude jest prawdopodobnie wykorzystywany do analizy wywiadowczej i pomocy w planowaniu operacyjnym.

Rzecznik Microsoft powiedział, że prawnicy firmy przeanalizowali klasyfikację i doszli do wniosku, że: „Produkty Anthropic, w tym Claude, mogą pozostać dostępne dla naszych klientów — innych niż Departament Wojny — za pośrednictwem platform takich jak M365, GitHub i Microsoft AI Foundry".

Microsoft może nadal współpracować z Anthropic przy projektach niezwiązanych z obronnością, dodał rzecznik.

Amazon, inwestor w Anthropic i znaczący klient modelu Claude firmy, nie odpowiedział natychmiast na prośbę o komentarz poza regularnymi godzinami pracy.

Maven Smart Systems firmy Palantir – platforma oprogramowania dostarczająca armii analizę wywiadowczą i celowanie broni – wykorzystuje wiele podpowiedzi i przepływów pracy zbudowanych przy użyciu kodu Claude firmy Anthropic, jak wcześniej informował Reuters.

Anthropic był najbardziej agresywny spośród swoich konkurentów w zabieganiu o przychylność amerykańskich urzędników ds. bezpieczeństwa narodowego. Jednak firma i Pentagon od miesięcy są w konflikcie w kwestii tego, jak wojsko może wykorzystywać jej technologię na polu bitwy. Konflikt ten wybuchł publicznie na początku tego roku.

Anthropic odmówił wycofania się z zakazów wykorzystywania swojej sztucznej inteligencji Claude do zasilania broni autonomicznej i masowej inwigilacji amerykańskiej. Pentagon się temu sprzeciwił, twierdząc, że powinien móc wykorzystywać tę technologię zgodnie z potrzebami, pod warunkiem że przestrzega prawa amerykańskiego.

Etykieta „ryzyka łańcucha dostaw" daje teraz Anthropic status, którego Waszyngton dotychczas zazwyczaj używał w stosunku do zagranicznych przeciwników. Podobne działania USA podjęto w celu usunięcia chińskiego giganta technologicznego Huawei z łańcuchów dostaw Pentagonu. – Rappler.com

Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z crypto.news@mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.