Strona główna Technologie Od pól bitewnych do centrów danych: wojna amerykańsko-irańska w dobie sztucznej inteligencji

Od pól bitewnych do centrów danych: wojna amerykańsko-irańska w dobie sztucznej inteligencji

7
0

Wojna amerykańsko-izraelska z Iranem przeniosła konflikt z pól bitewnych do centrów danych, inżynierów oprogramowania i technologii cywilnych, zamieniając ich zarówno w czynniki umożliwiające siłę militarną, jak i w najbardziej bezbronne cele.

W miarę jak zaciera się granica między infrastrukturą wojskową i cywilną, pojawiają się pilne pytania dotyczące praw i etyki wojny. Tymczasem szybki rozwój technologiczny wciąga coraz większą liczbę cywilów w coraz większy ślad machiny wojennej.

Wspólne ataki USA i Izraela na Iran w lutym 2026 r. pokazują, jak sztuczna inteligencja zmieniła współczesne metody wojny.

Cyfrowy wojownik na czele

Opierając się na systemach sztucznej inteligencji, które potrafią szybko analizować ogromne ilości różnorodnych danych, Centralne Dowództwo Stanów Zjednoczonych przeprowadziło pierwszą falę 900 ataków w niezwykle wąskim 12-godzinnym oknie, co byłoby logistycznie niemożliwe w ramach tradycyjnego planowania skoncentrowanego na człowieku.

Ta niespotykana dotąd prędkość operacji kinetycznych wynika z integracji komercyjnych systemów sztucznej inteligencji, takich jak Claude AI, produkowanego przez technologicznego giganta Anthropic, z platformami wywiadu wojskowego. Systemy te przeglądają zdjęcia satelitarne, nagrania z dronów, przechwyconą komunikację, a nawet aktywność w mediach społecznościowych, przekształcając surowe dane w zalecane cele w ciągu kilku minut.

To jednak nie jedyny przykład wykorzystania zaawansowanej sztucznej inteligencji w teatrze konfliktu.

Izraelskie Siły Obronne (IDF), a konkretnie elitarna jednostka wywiadowcza 8200, uruchomiły dwa główne systemy wspomagania decyzji oparte na sztucznej inteligencji: „Ewangelię” (Habsora) i „Lawenda”.

Ewangelia automatycznie i z zawrotną szybkością automatycznie identyfikuje cele strukturalne – budynki, sprzęt i kluczową infrastrukturę – na terytorium wroga. Podczas gdy zespół oficerów wywiadu mógł tradycyjnie wyznaczyć 50 celów w ciągu roku, automatycznie wydobywając dane wywiadowcze z ogromnych zasobów informacji, Ewangelia może wyznaczyć 100 celów w mniej niż dwa tygodnie, umożliwiając ciągłe bombardowania o dużej intensywności.

Tymczasem Lavender uzupełnia Ewangelię, identyfikując podejrzane osoby na podstawie ich powiązań społecznych, wzorców komunikacji i profili ruchowych.

Według doniesień, w ciągu pierwszych sześciu tygodni „Operacji Żelazne Miecze” w Strefie Gazy w latach 2023–2024 Lavender zidentyfikowała aż 37 000 Palestyńczyków jako potencjalne cele zamachu. Systemu tego często używano w połączeniu z prymitywnie nazwanym „Gdzie jest tata?”, automatycznym programem śledzącym, mającym na celu ostrzeganie jednostek wojskowych, gdy wybrana osoba wejdzie do ich rodzinnego domu, ułatwiając ataki, które choć precyzyjnie wycelowały w tę osobę, zabijały także innych wokół nich.

Kierowanie na koncentratory cyfrowe

Ruch w stronę wojny opartej na szybkości myślenia – w której sztuczna inteligencja identyfikuje cele i ustala priorytety celów szybciej, niż jest w stanie przetworzyć ludzki proces poznawczy – paradoksalnie sprawia, że ​​wyrafinowane zasoby cyfrowe, które jej umożliwiają, stają się najbardziej bezbronnymi celami.

W rezultacie charakterystyczną cechą irańskiej reakcji na wojnę narzuconą przez wspólne siły amerykańsko-izraelskie było podniesienie infrastruktury obliczeniowej i infrastruktury danych do rangi głównego celu wojskowego. W marcu 2026 r. Irański Korpus Strażników Rewolucji Islamskiej (IRGC) zaatakował kilka najważniejszych centrów danych w Zjednoczonych Emiratach Arabskich (ZEA) i Bahrajnie. The Guardian doniósł, że jest to być może pierwszy udokumentowany przypadek państwa narodowego celowo atakującego komercyjne centra danych w celu osłabienia zdolności wojskowych i wywiadowczych.

Centra danych te, obsługujące przede wszystkim kluczowe usługi cywilne, takie jak bankowość i opieka zdrowotna, mają krytyczne znaczenie dla działalności biznesowej, są niechronione i często są tak duże jak małe miasta ze względu na ogromną skoncentrowaną w nich moc obliczeniową.

I to właśnie sprawia, że ​​łatwo je wykryć i zakłócić.

Zależą one również od wrażliwych lokalnych sieci energetycznych i zużywają ogromne ilości energii elektrycznej, co oznacza, że ​​w przypadku uszkodzenia niezbędnych komponentów, takich jak transformatory i systemy chłodzenia, wymiana niezbędnych komponentów, takich jak transformatory i systemy chłodzenia, może zająć miesiące. Jeden udany strajk lub awaria może sparaliżować usługi AI w całym regionie na czas trwania konfliktu.

Z tego powodu Iran opublikował listę „celów technologicznych”, obejmującą obiekty należące do Microsoft, Google, IBM, Nvidia i Oracle. Republika Islamska argumentowała, że ​​chociaż struktury te stanowią własność cywilną, stanowią uzasadnione cele wojskowe ze względu na ich rolę jako „funkcjonalnego przedłużenia wrogiej władzy”.

Posunięcie to stanowi „Hormuz Ultimatum” w epoce cyfrowej: zablokowanie przepływu obliczeń dla sił zbrojnych obsługujących sztuczną inteligencję, podobnie jak ograniczenie przepływu ropy przez Cieśninę Ormuz do wrogich gospodarek.

Od scentralizowanego dowodzenia do cywilizowanej wojny

Aby zwiększyć odporność, ramy planowania wojskowego, takie jak prace amerykańskiego zespołu doradców ds. polityki globalnej RAND Corporation nad działaniami wojennymi wykorzystującymi sztuczną inteligencję, przechodzą w kierunku systemów rozproszonych, w których kontrola jest rozproszona w wielu lokalizacjach.

Co jednak najważniejsze, ta decentralizacja wplata operacje wojskowe w codzienną infrastrukturę cywilną. Najbardziej rażącym przykładem „cywilizacji wojny” jest żądanie Pentagonu, aby Anthropic — amerykańska firma zajmująca się bezpieczeństwem i badaniami nad sztuczną inteligencją — zniosła ograniczenia nałożone na swój model sztucznej inteligencji Claude, aby umożliwić „wszelki legalny użytek” wraz z nieograniczonym dostępem.

Kiedy firma odmówiła, sekretarz wojny USA Pete Hegseth nazwał Anthropic „ryzykiem dla łańcucha dostaw”, wyrażając swój pogląd, że jakakolwiek technologia cywilna jest strategicznym atutem wojskowym, a brak współpracy jest rażącą zdradą.

I to jest granica, na której technologia cywilna zostaje przymusowo wchłonięta przez wysiłek wojenny.

Cel(e)

Przejście w kierunku rozproszonej sztucznej inteligencji i poleganie na infrastrukturze komercyjnej ma przerażający logiczny punkt końcowy: utratę statusu chronionego globalnego personelu technicznego.

W miarę jak zacierają się granice między sieciami komercyjnymi i wojskowymi, cywilni specjaliści IT wspierający cyfrowe podstawy wojska ery informacyjnej są wciągani w celownik prawny i kinetyczny. Przecież zgodnie z Międzynarodowym prawem humanitarnym ludność cywilna traci ochronę przed atakiem „na czas bezpośredniego udziału w działaniach wojennych”.

Jednak eksperci prawni z Instytutu Lieber Institute w West Point podkreślają, że stosowanie tej zasady do inżynierów oprogramowania i twórców sztucznej inteligencji jest głęboko niejednoznaczne. Czy czynność pisania kodu dla systemu AI spełnia próg bezpośredniego uczestnictwa, niezależnie od tego, w jaki sposób system jest używany? Czy inżynier pozostaje odpowiedzialny i w związku z tym może być celem, podczas gdy sztuczna inteligencja pozostaje w użyciu wojskowym? Czy w przypadku rozproszonej sztucznej inteligencji rozproszonej po rozproszonej infrastrukturze osoby zaangażowane w jej utrzymanie można uznać za bojowników?

Pytania te nie są już wyłącznie teoretyczne. Teheran wskazał już regionalne siedziby i biura inżynieryjne wielu firm zajmujących się sztuczną inteligencją jako cele o dużej wartości.

Kiedy sztuczna inteligencja włącza swój własny ekosystem

Ty też Brutusie!

Pojawienie się ChatGPT i szeregu konkurencyjnych modeli sztucznej inteligencji, które zainspirowało, zrewolucjonizowało możliwość „wykrywania i eliminowania” specjalistów IT lub agentów wojskowych ukrytych w populacji ogólnej.

Nowoczesna technologia sztucznej inteligencji może wydobywać przydatne informacje z ogromnych ilości informacji biograficznych i społecznych, które ludzie udostępniają w Internecie, zarówno świadomie, jak i nieświadomie.

Systemy te mogą następnie korelować te informacje z wszelkimi surowymi informacjami zebranymi w inny sposób, w tym z dokumentacją medyczną, zdjęciami satelitarnymi i wszelkimi śladami informacji powiązanymi z danym podmiotem.

Przeciwnik może zatem zaprojektować agentów sztucznej inteligencji do tworzenia profili podatności na zagrożenia dla każdego członka wydziału na uniwersytecie powiązanym z obronnością lub każdego inżyniera u dostawcy IT, identyfikując potencjalne scenariusze ryzyka w przypadku przymusu lub eliminacji kinetycznej.

Sztuczna inteligencja nie tylko umożliwia prowadzenie działań wojennych; grozi pochłonięciem własnego ekosystemu. A ten niebezpieczny potencjał wzmacnia fakt, że sztuczna inteligencja może być luźną armatą.

Wewnętrzne izraelskie recenzje dotyczące Lavender wykazały dokładność na poziomie 90%. Choć brzmi to wysoko, biorąc pod uwagę skalę inwazji w Gazie, błędnie umieściła ona na liście zabitych około 3700 osób, z których wielu było dziennikarzami, działaczami na rzecz praw człowieka lub wysiedleńcami. Ich wzorce zachowań (takie jak częste zmiany numerów telefonów) zostały błędnie odczytane przez sztuczną inteligencję jako oznaki działalności bojowników. Jak podaje The Guardian, nadzór człowieka był minimalny, dodając, że operatorzy często spędzali zaledwie 20 sekund na sprawdzaniu celu zalecanego przez sztuczną inteligencję.

Tempo działania sztucznej inteligencji skraca czas potrzebny na ludzką ocenę, zmuszając dowódców do polegania głównie na ustalaniu priorytetów generowanych komputerowo, a nie na surowym zrozumieniu sytuacji. Jeśli sztuczna inteligencja uzyska większą autonomię, błędne, automatyczne decyzje mogą skutkować ryzykiem spowodowania drabin eskalacji w tempie i na skalę, które pozostawią niewiele miejsca na interwencję dyplomatyczną.

Ostateczne pytanie

Podobnie jak II wojna światowa dała nam technologię cywilną, taką jak kuchenki mikrofalowe, piekarniki i radary, dzisiejszy konflikt może również dać nam narzędzia codziennego użytku oparte na sztucznej inteligencji.

Jednak w przeciwieństwie do swojego poprzednika, to nowoczesne wcielenie przedsięwzięcia wojennego niesie ze sobą mroczniejszą obietnicę: grozi wciągnięciem całych społeczeństw w trwały stan zarządzania zagrożeniami, w którym podejrzenia przenikają głęboko w życie codzienne, a możliwości technologiczne umożliwiające ściganie postrzeganych wrogów na dużą skalę już istnieją.

Podczas gdy ONZ patrzy bezradnie, a etyka wojenna zostaje zepchnięta do wyboru dla wygody, musimy stawić czoła ostatecznemu pytaniu: czy jesteśmy u progu bezprecedensowej wielkości, czy też na krawędzi naszej własnej, automatycznej zagłady?