Dyrektor naczelny Goldman Sachs, David Solomon, stwierdził, że jest „nadmiernie świadomy” możliwości modelu sztucznej inteligencji Mythos firmy Anthropic i „ściśle współpracuje” z firmą technologiczną po tym, jak ta wydała ostrzeżenia o stwarzanym przez nią ryzyku dla cyberbezpieczeństwa.
Amerykański bank monitorował szybki postęp w dziedzinie sztucznej inteligencji, w tym dużych modeli językowych (LLM), w ramach szerzej zakrojonych wysiłków mających na celu ochronę przed hakerami.
„Oczywiście, że LLM robią szybkie postępy i jesteśmy niezwykle świadomi zwiększonych możliwości tych nowych modeli przy pomocy rządu USA i wydawców modeli” – Solomon powiedział analitykom w poniedziałek podczas rozmowy telefonicznej o wynikach finansowych.
Dotyczyło to między innymi Anthropic, firmy stojącej za rodziną narzędzi AI Claude. W zeszłym tygodniu stwierdziła, że jej najnowszy model, Mythos, stwarza bezprecedensowe ryzyko ze względu na zdolność ujawniania wad systemów informatycznych.
„Modele sztucznej inteligencji osiągnęły poziom możliwości kodowania, na którym mogą przewyższyć wszystkich ludzi oprócz najbardziej wykwalifikowanych w wyszukiwaniu i wykorzystywaniu luk w oprogramowaniu” – stwierdziła firma Anthropic w poście na blogu w zeszłą środę. „Skutki – dla gospodarki, bezpieczeństwa publicznego i bezpieczeństwa narodowego – mogą być poważne”.
Solomon powiedział w poniedziałek: „Jesteśmy świadomi Mythos i jego możliwości… Mamy model. Ściśle współpracujemy z firmą Anthropic i wszystkimi naszymi dostawcami zabezpieczeń, aby w pewnym sensie wykorzystać pionierskie możliwości tam, gdzie to możliwe. I to będzie w dalszym ciągu ważnym przedmiotem zainteresowania”.
„Jesteśmy bardzo skupieni na uzupełnianiu naszej odporności cybernetycznej i infrastruktury. Jest to część naszych bieżących możliwości, w które inwestujemy i w które przyspieszamy nasze inwestycje.”
Wiadomość ta nadeszła po tym, jak sekretarz skarbu USA Scott Bessent wezwał w zeszłym tygodniu Solomona i innych wielkich amerykańskich bankierów do Waszyngtonu, aby omówić model Mythos.
Spotkanie to skupiało się na szefach tzw. banków o znaczeniu systemowym, w przypadku których organy regulacyjne uważają, że poważne zakłócenia w ich działalności lub ich potencjalny upadek zagroziłyby stabilności finansowej.
W poniedziałek Instytut Bezpieczeństwa AI (AISI) brytyjskiego rządu ostrzegł, że Mythos stanowi „krok naprzód” w stosunku do poprzednich modeli pod względem stwarzanego przez siebie zagrożenia cybernetycznego.
AISI twierdzi, że Mythos może przeprowadzać ataki wymagające wielu działań i odkrywać słabe punkty w systemach informatycznych bez interwencji człowieka. Stwierdzono, że wykonanie tych zadań zwykle zajmuje profesjonalistom kilka dni. Mythos był pierwszym modelem sztucznej inteligencji, który pomyślnie ukończył 32-etapową symulację cyberataku stworzonego przez AISI, rozwiązując wyzwanie w 3 z 10 prób.
AISI stwierdziła, że Mythos wydaje się być w stanie autonomicznie atakować małe, słabo chronione systemy informatyczne, ale nie może z całą pewnością stwierdzić, czy byłby w stanie zaatakować dobrze chronione systemy, ponieważ w jego testach brakuje funkcji bezpieczeństwa, takich jak narzędzia obronne.
Wpis na blogu AISI zakończył się ostrzeżeniem, że przyszłe zaawansowane modele sztucznej inteligencji będą udoskonalać jedynie Mythos, dlatego „niezbędne są teraz inwestycje w cyberobronę”.
Brytyjskie organy regulacyjne mają w nadchodzących tygodniach poruszyć kwestię ryzyka Mythos z szefami brytyjskich banków i urzędnikami rządowymi. Grupa ds. odporności operacyjnej Cross Market (CMorg), składająca się z dyrektorów naczelnych, a także urzędników ze Skarbu Państwa, Banku Anglii, Urzędu Nadzoru Finansowego i Krajowego Centrum Bezpieczeństwa Cybernetycznego, ma się spotkać w ciągu najbliższych dwóch tygodni.
Bank Anglii, który zajmuje się komunikacją dotyczącą Cmorg, odmówił komentarza.