Strona główna Świat Anthropic pozywa rząd USA do sądu w związku z określeniem „zagrożenie bezpieczeństwa”...

Anthropic pozywa rząd USA do sądu w związku z określeniem „zagrożenie bezpieczeństwa” – Świat

12
0

WASZYNGTON: W poniedziałek firma Anthropic złożyła pozew przeciwko administracji Trumpa, zarzucając jej zemstę na firmie zajmującej się sztuczną inteligencją za odmowę zezwolenia na wykorzystanie jej modelu sztucznej inteligencji Claude do autonomicznych, śmiercionośnych działań wojennych i masowej inwigilacji Amerykanów.

W 48-stronicowej skardze złożonej do sądu federalnego w San Francisco firma Anthropic wnosi o uznanie jej za niezgodną z prawem i zablokowanie uznania jej za firmę stwarzającą ryzyko dla bezpieczeństwa narodowego w łańcuchu dostaw.

W swoim pozwie Anthropic stwierdziła, że ​​jej założeniem było przekonanie, że sztuczna inteligencja jest „wykorzystywana w sposób, który maksymalizuje pozytywne skutki dla ludzkości” i powinna być „najbezpieczniejsza i najbardziej odpowiedzialna”.

„Anthropic wnosi pozew, ponieważ rząd federalny zemścił się na nim za wyrażanie tej zasady” – czytamy w pozwie.

Menedżer OpenAI rezygnuje w proteście przeciwko porozumieniu z Pentagonem

Anthropic to pierwsza amerykańska firma, która została publicznie ukarana takim oznaczeniem, etykietą zwykle zarezerwowaną dla organizacji z zagranicznych krajów będących przeciwnikami, takich jak chiński gigant technologiczny Huawei.

Oznaczenie wymaga, aby dostawcy i wykonawcy z branży obronnej poświadczyli, że nie korzystają z modeli Anthropic w swojej pracy z Pentagonem.

„Konsekwencje tej sprawy są ogromne” – stwierdza pozew, a rząd „dąży do zniszczenia wartości ekonomicznej stworzonej przez jedną z najszybciej rozwijających się prywatnych firm na świecie”.

Spór wybuchł po tym, jak firma Anthropic rozwścieczyła szefa Pentagonu Pete’a Hegsetha, nalegając, aby jej technologia nie była wykorzystywana do masowej inwigilacji ani do w pełni autonomicznych systemów uzbrojenia.

Prezydent Donald Trump nakazał każdej agencji federalnej zaprzestanie korzystania z technologii Anthropic. Kilka godzin później Hegseth określił Anthropic jako „ryzyko w łańcuchu dostaw dla bezpieczeństwa narodowego” i nakazał, aby żaden wykonawca, dostawca ani partner wojskowy „nie mógł prowadzić żadnej działalności handlowej z Anthropic”, jednocześnie zezwalając samemu Pentagonowi na sześciomiesięczny okres przejściowy.

Awantura wybuchła kilka dni przed atakiem wojskowym USA na Iran.

Claude to najszerzej stosowany w Pentagonie model granicznej sztucznej inteligencji i jedyny taki model, który obecnie działa w tajnych systemach Departamentu Wojny.

W swoim pozwie Anthropic podnosi, że podjęte przeciwko niej działania naruszają Pierwszą Poprawkę, karząc firmę za chronione wypowiedzi na temat polityki bezpieczeństwa sztucznej inteligencji, przekraczają ustawowe uprawnienia Pentagonu i pozbawiają ją należytego procesu na mocy Piątej Poprawki.

„Konstytucja nie pozwala rządowi na korzystanie ze swojej ogromnej władzy w celu karania firmy za chronioną wypowiedź” – stwierdza skarga.

Spółka występuje o wydanie stałego nakazu sądowego blokującego wykonanie oznaczenia.

Menedżer OpenAI rezygnuje

Menedżerka ds. robotyki w OpenAI powiedziała w sobotę, że zrezygnowała w związku z umową giganta sztucznej inteligencji z rządem USA, zezwalającą na wykorzystanie jego technologii do celów wojennych i nadzoru wewnętrznego.

Firma stojąca za ChatGPT podpisała w zeszłym miesiącu kontrakt obronny z Pentagonem, kilka godzin po tym, jak rywal Anthropic odmówił wyrażenia zgody na bezwarunkowe wykorzystanie jej technologii w celach wojskowych.

Dyrektor generalny OpenAI, Sam Altman, wysłał później do X informację, że firma zmodyfikuje umowę, tak aby jej modele nie były wykorzystywane do „krajowej inwigilacji osób i obywateli USA”. Po krytyce przyznał on zbyt dużą władzę urzędnikom wojskowym bez nadzoru.

Caitlin Kalinowski, menadżerka zespołu sprzętowego w dziale robotyki, napisała na X, że bardzo zależy jej na „zespole robotyki i pracy, którą wspólnie zbudowaliśmy”.

Jednakże „inwigilacja Amerykanów bez nadzoru sądowego i zabójcza autonomia bez zezwolenia człowieka to kwestie, które zasługiwały na więcej dyskusji, niż im się to udało”.

„Tu chodziło o zasady, a nie o ludzi” – powiedziała.

W kolejnym poście Kalinowska napisała, że ​​nie zgadza się z pośpiechem w zawarciu umowy z Pentagonem przez OpenAI.

„Żeby było jasne, mój problem polega na tym, że ogłoszenie zostało wydane w pośpiechu, bez określonych barier” – napisała.

„To przede wszystkim kwestia zarządzania. Są one zbyt ważne, aby transakcje lub ogłoszenia można było wprowadzać w pośpiechu. ” Kalinowski pracował wcześniej w Meta, opracowując okulary do rzeczywistości rozszerzonej.

Opublikowano w Dawn, 10 marca 2026 r