Strona główna Wiadomości Nowe narzędzie AI firmy Anthropic ma konsekwencje dla nas wszystkich – czy...

Nowe narzędzie AI firmy Anthropic ma konsekwencje dla nas wszystkich – czy tego chcemy, czy nie | Shakeel Hashim

10
0


W czerwcu 2024 r. cyberatak na firmę świadczącą usługi patologiczne spowodował chaos w londyńskich szpitalach. Odwołano ponad 10 000 wizyt. Nastąpiły niedobory krwi, a opóźnienia w badaniach krwi doprowadziły do ​​śmierci pacjenta.

Tego typu śmiercionośne cyberataki są na szczęście rzadkie. Ale nowa wersja sztucznej inteligencji może to zmienić – pogrążając nas w nowym, przerażającym świecie chaosu i zakłóceń w systemach cyfrowych, na których polegamy.

W tym tygodniu Anthropic, wiodąca firma zajmująca się sztuczną inteligencją z San Francisco, ogłosiła „Claude Mythos Preview”, model sztucznej inteligencji, który według startupu jest zbyt niebezpieczny, aby go publicznie udostępnić ze względu na jego wyjątkowe możliwości w zakresie cyberbezpieczeństwa i cyberataków. Firma twierdzi, że Mythos znalazła luki w zabezpieczeniach każdej większej przeglądarki i systemu operacyjnego. Innymi słowy, ten nowy model sztucznej inteligencji może pomóc hakerom w zakłócaniu działania większości najważniejszego oprogramowania na świecie.

„To alarmujące na poziomie roku dwutysięcznego” – stwierdził jeden z ekspertów ds. bezpieczeństwa. Mythos znalazł już 27-letni błąd w krytycznym elemencie infrastruktury bezpieczeństwa oraz liczne luki w jądrze Linuksa, istotne dla systemów komputerowych na całym świecie. Te słabe punkty mogą zagrozić niemal wszystkiemu w Internecie, począwszy od usług przesyłania strumieniowego, z których korzystasz, po systemy bankowe, na których polegasz.

Gdyby taka technologia była powszechnie dostępna i tak wydajna, jak twierdzi Anthropic, konsekwencje mogłyby być katastrofalne. Cyberataki nie są już problemem wyłącznie cyfrowym. Prawie wszystko, na czym polegamy w świecie fizycznym, wiąże się z oprogramowaniem. W ostatnich latach lotniska, szpitale i sieci transportowe zostały zniszczone przez cyberataki. Do tej pory ataki na tę skalę wymagały poważnej wiedzy specjalistycznej. Mythos udostępniłby tę możliwość amatorom i zwiększył zdolność profesjonalistów do siania spustoszenia.

Eksperci od cyberbezpieczeństwa biją na alarm. Anthony Grieco z Cisco, firmy zajmującej się sieciami i bezpieczeństwem cybernetycznym, powiedział: „Możliwości sztucznej inteligencji przekroczyły próg, który zasadniczo zmienia pilność potrzebną do ochrony infrastruktury krytycznej… i nie ma odwrotu”. Lee Klarich, dyrektor ds. zarządzania produktami w Palo Alto Networks, stwierdził, że model ten „sygnalizuje niebezpieczną zmianę” i ostrzegł, że „wszyscy muszą przygotować się na ataki wspomagane przez sztuczną inteligencję”.

„Będzie więcej ataków, szybszych ataków i bardziej wyrafinowanych ataków” – powiedział Klarich.

Na szczęście nie jesteśmy jeszcze całkowicie skazani. Zamiast udostępniać Mythos publicznie, Anthropic najpierw oferuje go firmom obsługującym większość naszej infrastruktury krytycznej, w tym Apple, Microsoft i Google. Mamy nadzieję, że uda im się wykorzystać Mythos do znalezienia luk w swoich zabezpieczeniach i załatania ich, zanim złoczyńcy uzyskają podobne możliwości.

Oznacza to, że obecnie trwa wyścig z czasem. Dzięki brakowi regulacji na poziomie krajowym i międzynarodowym nic nie zmusza innych firm do stosowania strategii wdrożeniowej Anthropic. Prawdopodobnie to tylko kwestia miesięcy, zanim mniej odpowiedzialni aktorzy – w USA lub gdzie indziej – wypuszczą model o podobnych możliwościach. Kiedy to zrobią, możemy mieć tylko nadzieję, że oprogramowanie, na którym polegamy, zostało odpowiednio zabezpieczone.

Byłbym optymistą, gdyby w czasach większej współpracy Stany Zjednoczone mogły podjąć wysiłki całego społeczeństwa, aby przygotować się na nadchodzącą „bezbronną apokalipsę”. Jednak administracja Trumpa wypowiedziała wojnę firmie Anthropic, zakazując agencjom rządowym i wojsku korzystania z jej technologii i publicznie nazywając ją „radykalną lewicową firmą, przebudzona” za niedopuszczenie wojska do używania swoich narzędzi do masowej inwigilacji Amerykanów. Ta wrogość oznacza, że ​​jest mało prawdopodobne, aby rząd współpracował z Anthropic w celu wzmocnienia własnych, notorycznie rozchwianych systemów – a które są jednymi z najważniejszych do zabezpieczenia.

Jest pewien powód do optymizmu. Być może firma Anthropic przecenia możliwości Mythos: w końcu ma żywotny interes w promowaniu własnych produktów. Jednak udokumentowane słabości i chęć konkurentów do współpracy z Anthropic sugerują, że zagrożenie jest realne. Tymczasem niektóre części rządu zwracają na to uwagę: we wtorek Scott Bessent, sekretarz skarbu USA i Jerome Powell, prezes Rezerwy Federalnej, podobno zwołali kierownictwo Wall Street, aby przygotować się na ryzyko stwarzane przez Mythos i przyszłe modele sztucznej inteligencji skupione na cyberbezpieczeństwie.

Ale ogólny obraz jest ponury. Mit to nie tylko problem cyberbezpieczeństwa, ale także niepokojąco dobry w pomaganiu ludziom w projektowaniu broni biologicznej, a czasami świadomie oszukuje użytkowników i zaciera ślady. Jest to demonstracja zagrożeń związanych z „superinteligentną” sztuczną inteligencją, którą Anthropic i jej konkurenci chcą sprowadzić na społeczeństwo – do cholery z konsekwencjami. Dzięki Mythos możemy mieć czas, aby wyprzedzić ryzyko. Jeśli jednak rządy w dalszym ciągu pozwolą tym firmom działać bez zasad, w przyszłości możemy nie mieć tyle szczęścia.

Shakeel Hashim jest redaktorem Transformer, publikacji o sile i polityce transformacyjnej sztucznej inteligencji