Strona główna Technologie AI na wojnie: 5 rzeczy, które warto wiedzieć o Projekcie Maven

AI na wojnie: 5 rzeczy, które warto wiedzieć o Projekcie Maven

13
0

WASZYNGTON: Program sztucznej inteligencji Pentagonu o nazwie Projekt Maven znajduje się w centrum amerykańskich ataków na Iran i potencjalnie jest jedną z najbardziej znaczących transformacji współczesnych działań wojennych.

Co to jest?

Projekt Maven to sztandarowy program Pentagonu w zakresie sztucznej inteligencji, rozpoczęty w 2017 roku jako wąski eksperyment mający pomóc analitykom wojskowym w zrozumieniu potoku materiału filmowego z dronów napływającego ze stref konfliktu.

Operatorzy tonęli w obrazach, przeszukując klatka po klatce interesujące obiekty, które mogły pojawić się tylko na chwilę, a następnie zniknąć. Maven został zbudowany, aby znaleźć igłę w stogu siana.

Osiem lat później program przekształcił się w coś znacznie bardziej ekspansywnego: wspomagany sztuczną inteligencję system namierzania i zarządzania polem bitwy, który znacznie przyspieszył to, co w prowadzeniu wojny nazywa się łańcuchem zabójstw – proces od początkowego wykrycia do zniszczenia.

Jak to działa?

Maven pełni zarówno funkcję kontroli ruchu lotniczego w bitwie, jak i kokpitu. Aalok Mehta, dyrektor Centrum AI CSIS Wadhwani, opisał system jako „w zasadzie nakładkę”, która łączy dane z czujników, dane wywiadowcze żołnierzy wroga, zdjęcia satelitarne i informacje o rozmieszczeniu żołnierzy.

W praktyce oznacza to szybkie skanowanie kanałów satelitarnych w celu wykrycia ruchów wojsk lub identyfikacji celów, a także „wykonanie migawki teatru działań” w celu ustalenia najlepszego sposobu działania w przypadku uderzenia w konkretny cel.

W niedawnej demonstracji opublikowanej w Internecie urzędnik Pentagonu opisał, jak Maven w „magiczny sposób” zamienia zaobserwowane zagrożenie w proces namierzania, oceniający dostępne zasoby i przedstawiający dowódcy opcje.

Pojawienie się ChatGPT było kolejnym krokiem naprzód, poszerzającym zastosowanie tej technologii na znacznie większą liczbę użytkowników, którzy mogą wchodzić w interakcję z Mavenem w języku naturalnym. Na razie tę funkcję zapewnia Claude z Anthropic, choć rozwiązanie to dobiega gorzkiego końca po tym, jak Pentagon zjeżył się na żądanie laboratorium sztucznej inteligencji, aby jego modelu nie używać do w pełni zautomatyzowanych ataków ani śledzenia obywateli USA.

Dlaczego Google powiedział „nie”?

Kwestie etyczne były czynnikiem wpływającym na początki Mavena, kiedy Google był pierwotnym wykonawcą programu AI. W 2018 roku ponad 3000 pracowników podpisało list otwarty, w którym protestuje przeciwko zaangażowaniu firmy, argumentując, że umowa przekroczyła granicę. Kilku inżynierów zrezygnowało.

Google odmówił przedłużenia umowy po wygaśnięciu umowy, a następnie opublikował zasady sztucznej inteligencji wyraźnie wykluczające udział w systemach uzbrojenia. Odcinek ten ujawnił różnicę w Dolinie Krzemowej pomiędzy inżynierami, którzy postrzegali autonomiczne namierzanie jako etyczną czerwoną linię, a urzędnikami odpowiedzialnymi za obronę, którzy uważali to za niezbędne.

Niedawno Google usunął ograniczenia związane z polityką dotyczącą sztucznej inteligencji i stwierdził, że bardziej skupia się na pracach nad bezpieczeństwem narodowym. Pentagon stwierdził, że Google wraz z xAI i OpenAI są zainteresowane zastąpieniem Claude’a w Maven.

W 2024 r. firma Palantir — założona częściowo dzięki funduszom zalążkowym CIA i zbudowana od początku w oparciu o pracę wywiadu rządowego — wkroczyła na miejsce zwolnione przez Google.

Według doniesień firma została głównym wykonawcą technologii Mavena, a jej sztuczna inteligencja stanowi obecnie operacyjny szkielet programu. Dyrektor generalny Palantir, Alex Karp, wyraźnie określa stawkę.

Opublikowano w Dawn, 6 kwietnia 2026 r