WASZYNGTON: Program sztucznej inteligencji Pentagonu o nazwie Projekt Maven znajduje się w centrum amerykańskich ataków na Iran i potencjalnie jest jedną z najbardziej znaczących transformacji współczesnych działań wojennych.
Co to jest?
Projekt Maven to sztandarowy program Pentagonu w zakresie sztucznej inteligencji, rozpoczęty w 2017 roku jako wąski eksperyment mający pomóc analitykom wojskowym w zrozumieniu potoku materiału filmowego z dronów napływającego ze stref konfliktu.
Operatorzy tonęli w obrazach, przeszukując klatka po klatce interesujące obiekty, które mogły pojawić się tylko na chwilę, a następnie zniknąć. Maven został zbudowany, aby znaleźć igłę w stogu siana.
Osiem lat później program przekształcił się w coś znacznie bardziej ekspansywnego: wspomagany sztuczną inteligencję system namierzania i zarządzania polem bitwy, który znacznie przyspieszył to, co w prowadzeniu wojny nazywa się łańcuchem zabójstw – proces od początkowego wykrycia do zniszczenia.
Jak to działa?
Maven pełni zarówno funkcję kontroli ruchu lotniczego w bitwie, jak i kokpitu. Aalok Mehta, dyrektor Centrum AI CSIS Wadhwani, opisał system jako „w zasadzie nakładkę”, która łączy dane z czujników, dane wywiadowcze żołnierzy wroga, zdjęcia satelitarne i informacje o rozmieszczeniu żołnierzy.
W praktyce oznacza to szybkie skanowanie kanałów satelitarnych w celu wykrycia ruchów wojsk lub identyfikacji celów, a także „wykonanie migawki teatru działań” w celu ustalenia najlepszego sposobu działania w przypadku uderzenia w konkretny cel.
W niedawnej demonstracji opublikowanej w Internecie urzędnik Pentagonu opisał, jak Maven w „magiczny sposób” zamienia zaobserwowane zagrożenie w proces namierzania, oceniający dostępne zasoby i przedstawiający dowódcy opcje.
Pojawienie się ChatGPT było kolejnym krokiem naprzód, poszerzającym zastosowanie tej technologii na znacznie większą liczbę użytkowników, którzy mogą wchodzić w interakcję z Mavenem w języku naturalnym. Na razie tę funkcję zapewnia Claude z Anthropic, choć rozwiązanie to dobiega gorzkiego końca po tym, jak Pentagon zjeżył się na żądanie laboratorium sztucznej inteligencji, aby jego modelu nie używać do w pełni zautomatyzowanych ataków ani śledzenia obywateli USA.
Dlaczego Google powiedział „nie”?
Kwestie etyczne były czynnikiem wpływającym na początki Mavena, kiedy Google był pierwotnym wykonawcą programu AI. W 2018 roku ponad 3000 pracowników podpisało list otwarty, w którym protestuje przeciwko zaangażowaniu firmy, argumentując, że umowa przekroczyła granicę. Kilku inżynierów zrezygnowało.
Google odmówił przedłużenia umowy po wygaśnięciu umowy, a następnie opublikował zasady sztucznej inteligencji wyraźnie wykluczające udział w systemach uzbrojenia. Odcinek ten ujawnił różnicę w Dolinie Krzemowej pomiędzy inżynierami, którzy postrzegali autonomiczne namierzanie jako etyczną czerwoną linię, a urzędnikami odpowiedzialnymi za obronę, którzy uważali to za niezbędne.
Niedawno Google usunął ograniczenia związane z polityką dotyczącą sztucznej inteligencji i stwierdził, że bardziej skupia się na pracach nad bezpieczeństwem narodowym. Pentagon stwierdził, że Google wraz z xAI i OpenAI są zainteresowane zastąpieniem Claude’a w Maven.
W 2024 r. firma Palantir — założona częściowo dzięki funduszom zalążkowym CIA i zbudowana od początku w oparciu o pracę wywiadu rządowego — wkroczyła na miejsce zwolnione przez Google.
Według doniesień firma została głównym wykonawcą technologii Mavena, a jej sztuczna inteligencja stanowi obecnie operacyjny szkielet programu. Dyrektor generalny Palantir, Alex Karp, wyraźnie określa stawkę.
Opublikowano w Dawn, 6 kwietnia 2026 r