PAKISTAN zaczyna stawiać czoła pytaniu, którego nie może już odkładać na później: jak zabezpieczyć swoją przyszłość przed sztuczną inteligencją. Sztuczna inteligencja nie jest już odległą ambicją. Jest to natychmiastowa konieczność. W ostatnich miesiącach Pakistan ogłosił ogólnokrajowy program szkoleniowy w zakresie sztucznej inteligencji, zobowiązał się do inwestycji o wartości 1 miliarda dolarów do 2030 r. i nakreślił plany przeszkolenia dużej części siły roboczej w zakresie umiejętności związanych ze sztuczną inteligencją.
Zobowiązania te, odzwierciedlone w Deklaracji dotyczącej sztucznej inteligencji w Islamabadzie, ujawnionej podczas Tygodnia AI w Indusie w 2026 r., sygnalizują, że Pakistan nie obserwuje już wyłącznie przejścia na sztuczną inteligencję z boku. Opóźnienie niesie teraz konsekwencje, na które kraj nie może już sobie pozwolić.
To uznanie jest jednak dopiero punktem wyjścia. Odpowiedź Pakistanu pozostaje przede wszystkim na poziomie zamiarów. Sztuczna inteligencja natomiast nagradza przygotowanie, szybkość i ciągłość. Zamiar rzadko był problemem Pakistanu. To była egzekucja. Ogłoszenia nadają impet, ale tylko konsekwentna realizacja daje rezultaty.
Pakistan nie cierpi na brak ambicji. Cierpi na brak kontynuacji. I właśnie w tym momencie, pomiędzy ogłoszeniem a wykonaniem, dynamika w Pakistanie historycznie osłabła.
Pakistan ma około 60 procent populacji poniżej 30. roku życia, ale nie jest to zaletą, jeśli młodzież nie jest wyposażona i przeszkolona. Miliony ludzi pozostają poza systemem edukacji, a wielu w nim nie posiada przydatnych umiejętności, a jednocześnie automatyzuje się lub redefiniuje stanowiska pracy na poziomie podstawowym.
Globalna dyskusja na temat sztucznej inteligencji już się zmieniła. UNESCO nalega na włączenie umiejętności korzystania z sztucznej inteligencji do systemów edukacji. MOP ostrzega przed przekwalifikowaniem na dużą skalę. UNDP podkreśla rosnącą lukę w możliwościach. Podsumowując, nie są to odosobnione obawy, ale sygnały wspólnego kierunku. Bez trwałej interwencji nierówności prawdopodobnie się pogłębią. To nie tylko zmiana technologiczna. Jest to zmiana kolejności umiejętności i możliwości, a jej skutki nie będą równomiernie rozłożone.
Pakistan musi zapewnić integrację sztucznej inteligencji z krajowym ekosystemem.
Trzeba przyznać, że Pakistan nie jest już nieobecny w tej rozmowie. Krajowe ramy polityki w zakresie sztucznej inteligencji zatwierdzone przez rząd federalny w lipcu 2025 r. sygnalizują inicjatywę. Jednak bliższe przyjrzenie się ujawnia słabości strukturalne. W jednej z ocen opisano tę politykę jako ambitną, lecz pozbawioną podstaw prawnych i nadmiernie opartą na optymizmie. W rezultacie ramy pakistańskie wskazują we właściwym kierunku, ale nie tworzą wiążących zobowiązań.
W krajobrazie prawnym i regulacyjnym Pakistanu pojawia się kolejna luka. Ustawa o zapobieganiu przestępstwom elektronicznym stanowi punkt odniesienia dla cyberprzestępstw, natomiast projekt ustawy o ochronie danych osobowych pozostaje w toku. Przepisy Państwowego Banku Pakistanu dotyczące bankowości cyfrowej obejmują niektóre zautomatyzowane procesy, takie jak wykrywanie oszustw i wdrażanie nowych pracowników, ale podstawowe podstawy prawne sięgają 2007 r., na długo przed generatywną sztuczną inteligencją. Pozostawia to bez odpowiedzi pytania dotyczące odpowiedzialności i odpowiedzialności. To nie są sprawy peryferyjne. Stanowią one podstawę działania systemów AI.
Następnie pojawia się pytanie, co zrobić z już utworzonymi organami do zarządzania sztuczną inteligencją, takimi jak powołane w 2018 r. Krajowe Centrum Sztucznej Inteligencji, które pełni funkcję centrum badań, szkoleń i transferu wiedzy.
Jako inicjatywa instytucjonalna o charakterze nieregulacyjnym nie posiada jednak uprawnień wykonawczych. Niedawno zaczęły pojawiać się mechanizmy instytucjonalne wprowadzone w ramach krajowej polityki dotyczącej sztucznej inteligencji do roku 2025, w tym proponowane struktury koordynacyjne i nadzorcze, ale ich uprawnienia regulacyjne i praktyczne skutki pozostają ograniczone i wciąż ewoluują.
Kwestie odpowiedzialności dodatkowo komplikują sprawę. System prawny Pakistanu opiera się na actus reus (wina) i mens rea (wina). Systemy autonomiczne zakłócają jedno i drugie. Kiedy system sztucznej inteligencji powoduje szkodę, można zidentyfikować czyn, ale stojący za nim umysł nie. Powstaje zatem pytanie, kto ponosi odpowiedzialność. Deweloper, wdrażający czy instytucja korzystająca z systemu? Prawo pakistańskie nie daje spójnej odpowiedzi. Bez jasnych standardów innowacje biznesowe spowalniają, a odpowiedzialność się rozprasza.
Edukacja – a co za tym idzie edukacja w zakresie sztucznej inteligencji – jest obecnie przedmiotem prowincji po 18. poprawce do konstytucji. Władze prowincji kontrolują programy nauczania i szkolenia, podczas gdy rola władz federalnych polega w dużej mierze na koordynacji. Sprawia to, że dostosowanie jest niezbędne, choć obecne wysiłki są nadal fragmentaryczne. Brakuje mechanizmu wymagającego koordynacji, a nie jedynie zachęcania do niej. Bez tego nawet dobrze zaprojektowane inicjatywy mogą mieć różne cele.
Oprócz usunięcia luk prawnych i regulacyjnych Pakistan musi zapewnić integrację sztucznej inteligencji z krajowym ekosystemem.
Szkolenie w zakresie umiejętności musi prowadzić do wykazania się umiejętnościami, a nie tylko do uzyskania certyfikatu. Studenci ostatniego roku powinni realizować projekty branżowe, a część zaliczeń powinna pochodzić z pracy laboratoryjnej. Rząd powinien także publikować coroczną analizę luk w umiejętnościach, dostosowującą programy nauczania do potrzeb pracodawców.
W wysiłki państwa należy także włączyć sektor prywatny. Firmy nie mogą pozostać biernymi konsumentami wyszkolonych talentów. Państwo powinno oferować ulgi podatkowe na certyfikowane staże, stworzyć krajową platformę staży i wymagać od firm ubiegających się o zamówienia publiczne wykazania możliwości szkolenia w zakresie sztucznej inteligencji. Bez tego powiązania szkolenie i zatrudnienie pozostaną od siebie niezależne.
Należy również zadbać o dostęp. Bez przemyślanych wysiłków korzyści ze sztucznej inteligencji pozostaną skoncentrowane w dużych miastach. Dotacje na sprzęt powinny priorytetowo traktować instytucje wiejskie, a programy szkoleniowe powinny rezerwować miejsca dla okręgów o niedostatecznym dostępie do zasobów. Jeżeli dostęp będzie wynikał z istniejącej infrastruktury, przepaść będzie się tylko pogłębiać.
Wykonanie nie dotyczy pojedynczej reformy i ostatecznie zależy od spójności w edukacji, przemyśle, infrastrukturze i prawie. Jeśli jeden będzie opóźniony, reszta nie wytrzyma. Wyzwanie ma charakter systemowy. Wymaga koordynacji, dyscypliny i trwałej woli politycznej, a nie izolowanych impulsów wysiłków lub krótkotrwałych inicjatyw.
Sztuczna inteligencja nie będzie czekać na gotowość Pakistanu ani nie dostosuje się do jej tempa. Niezależnie od tego pójdzie naprzód, redystrybuując przewagę w czasie rzeczywistym. Pytanie brzmi, czy Pakistan podąża za tym, świadomie i z przekonaniem, czy też przygląda się temu z boku. Wybór ten nie jest już teoretyczny i nie jest już wygodnie odległy. To już się rozwija. Konsekwencje błędnego zrozumienia nie będą stopniowe. Będą one decydujące, odczuwalne przez pokolenia i niezwykle trudne do odwrócenia.
Autor jest praktykiem prawa międzynarodowego i absolwentem Harvard Law School.
veritas@post.harvard.edu
Opublikowano w Dawn, 4 maja 2026 r