Strona główna Wiadomości „Zbyt potężny dla opinii publicznej”: informacje o staraniach Anthropic o wygranie wojny...

„Zbyt potężny dla opinii publicznej”: informacje o staraniach Anthropic o wygranie wojny reklamowej AI | AI (sztuczna inteligencja)

13
0


W tym tygodniu firma Anthropic zajmująca się sztuczną inteligencją oświadczyła, że ​​stworzyła model sztucznej inteligencji tak potężny, że z poczucia przytłaczającej odpowiedzialności nie zamierza go udostępniać opinii publicznej.

Sekretarz skarbu USA Scott Bessent wezwał szefów największych banków na rozmowę na temat modelu Mythos. Poseł ds. reformy Wielkiej Brytanii Danny Kruger napisał list do rządu, wzywając go do „nawiązania współpracy z firmą Anthropic zajmującą się sztuczną inteligencją, której nowy model pionierski Claude Mythos może stanowić katastrofalne zagrożenie dla bezpieczeństwa cybernetycznego Wielkiej Brytanii”. X oszalał.

Inni byli bardziej sceptyczni, w tym znany krytyk sztucznej inteligencji Gary Marcus, który powiedział: „Dario (Amodei) ma znacznie więcej technicznych umiejętności niż Sam (Altman), ale wydaje się, że ukończył tę samą szkołę szumu i przesady”, odnosząc się do dyrektorów generalnych Anthropic i jej rywala, OpenAI.

Nie jest jasne, czy Anthropic zbudował boga maszynę. Bardziej widoczne jest to, że startup z San Francisco, powszechnie postrzegany jako „odpowiedzialna” firma zajmująca się sztuczną inteligencją, jest genialny w marketingu.

W ciągu ostatnich miesięcy o firmie Anthropic można było przeczytać na 10 000 słów w „New Yorkerze”, dwóch artykułach w „Wall Street Journal” i na okładce magazynu „Time”, na której widniała twarz Amodei w stylu plakatu filmowego, nad Pentagonem i sekretarzem obrony USA Pete’em Hegsethem.

Współzałożyciel Amodei i Anthropic, Jack Clark, pojawił się w lutym w dwóch oddzielnych podcastach New York Timesa, zastanawiając się nad takimi pytaniami, jak to, czy ich maszyna była świadoma i czy wkrótce może „przebić się przez gospodarkę”. „Filozof-rezydent” firmy rozmawiał z WSJ o tym, czy Claude – produkt komercyjny używany do handlu kryptowalutami i wyznaczania celów rakietowych – ma „poczucie siebie”.

Dario Amodei „ma znacznie więcej technicznych umiejętności” niż dyrektor generalny OpenAI, Sam Altman, powiedział jeden z krytyków AI, „ale wydaje się, że ukończył tę samą szkołę szumu i przesady”. Zdjęcie: Denis Balibouse/Reuters

Wszystko to miało miejsce w wyniku sporu między Anthropic a Departamentem Obrony USA, w którym Anthropic, pomimo stworzenia narzędzia sztucznej inteligencji wykorzystywanego przez Pentagon do ataku na Iran, zdołał wypaść znacznie lepiej niż OpenAI, które zaoferowało pomoc armii amerykańskiej w zrobieniu tego samego, ale – być może – z mniejszą liczbą poręczy.

Jej liderka medialna, Danielle Ghiglieri, odnotowała zwycięstwa na LinkedIn. „Jestem nieskończenie dumna, że ​​mogę pracować w Anthropic” – powiedziała o okładce firmy w „Time”, tagując dziennikarzy zaangażowanych w post o „szalonym pędzie”, aby cała historia przekroczyła granicę.

Oglądanie 60-minutowego odcinka CBS z udziałem Amodei „było jednym z tych momentów, w których wzruszałam się” – stwierdziła. „To, co nadało sens nie tylko platformie, ale fakt, że historia, którą chcieliśmy opowiedzieć, rzeczywiście zaistniała”.

Na temat profilu „The New Yorker” autorstwa dziennikarza Gideona Lewisa-Krausa napisała: „Skłamałabym, gdybym powiedziała, że ​​nie denerwowałam się naszym pierwszym spotkaniem osobiście… praca z kimś kalibru Gideona oznacza zmuszanie do wyrażania pomysłów, które wciąż powstają, i akceptowanie tego dyskomfortu”.

(„Założę się, że wszyscy tak o tobie mówią” – powiedział mój redaktor.)

Zauważyli to inni PR-owcy zajmujący się technologią.

„Wyraźnie mają teraz moment, ale firmy tworzące technologie, które zmienią świat, zasługują na równą uwagę” – stwierdził jeden z nich. „W zeszłym tygodniu przypadkowo ujawnili swój własny kod źródłowy, a w tym tygodniu twierdzą, że zarządzają zagrożeniami cybernetycznymi za pomocą nowego potężnego modelu, nad którym tylko oni kontrolują. Każda inna duża firma technologiczna zostałaby wyśmiana.”

Anthropic przypadkowo udostępniło część wewnętrznego kodu źródłowego Claude’a na początku kwietnia. „Nie ujawniono ani nie ujawniono żadnych wrażliwych danych ani danych uwierzytelniających klientów” – stwierdził.

Co to wszystko oznacza dla niewątpliwie potężnych Mitów Anthropic?

Możliwości modelu nie zostały „potwierdzone” – stwierdziła dr Heidy Khlaaf, główny naukowiec zajmujący się sztuczną inteligencją w Instytucie AI Now. „Opublikowanie postu marketingowego zawierającego celowo niejasny język, który zaciemnia dowody… stawia pod znakiem zapytania, czy próbują pozyskać dalsze inwestycje bez kontroli”.

„Mythos to prawdziwy rozwój i Anthropic słusznie potraktował go poważnie” – powiedział Jameison O’Reilly, ekspert ds. cyberbezpieczeństwa ofensywnego. Stwierdził jednak, że niektóre twierdzenia Anthropic, np. wykrycie tysięcy „luk dnia zerowego” w głównych systemach operacyjnych, nie mają aż tak dużego znaczenia z punktu widzenia cyberbezpieczeństwa w świecie rzeczywistym.

Luka zero-day to luka w oprogramowaniu lub sprzęcie nieznana jej twórcom.

„Spędziliśmy ponad 10 lat, uzyskując autoryzowany dostęp do setek organizacji – banków, rządów, infrastruktury krytycznej, przedsiębiorstw globalnych” – powiedział O’Reilly. „W ciągu tych 10 lat, w ramach setek zleceń, liczba przypadków, w których potrzebowaliśmy luki dnia zerowego, aby osiągnąć nasz cel, była znikomo mała”.

W zeszłym miesiącu protestujący w San Francisco wezwali firmy zajmujące się sztuczną inteligencją do wstrzymania rozwoju, maszerując do biur Anthropic i OpenAI. Zdjęcie: Manuel Orbegozo/Reuters

Inne powody mogły wpłynąć na decyzję Anthropic o nie wypuszczeniu Mythos.

Firma ma ograniczone zasoby i wydaje się, że ma trudności z zapewnieniem wystarczającej mocy obliczeniowej, aby wszyscy abonenci mogli korzystać z jej modeli. Wprowadzono ograniczenia użytkowania w niezwykle popularnym Claude. Niedawno stwierdzono, że użytkownicy będą musieli dokupić dodatkową pojemność oprócz swoich subskrypcji, aby móc uruchamiać narzędzia innych firm, takie jak OpenClaw. W tym momencie może po prostu nie mieć infrastruktury umożliwiającej wydanie nowego, wyolbrzymionego dzieła.

Podobnie jak OpenAI, Anthropic ściga się, by zebrać miliardy dolarów i przejąć rynek – wciąż źle zdefiniowany – ludzi, którzy mogliby polegać na chatbotach firmy jako przyjaciele, romantyczni partnerzy lub głęboko spersonalizowani asystenci, a także firm, które mogłyby wykorzystać je do zastąpienia ludzkich pracowników.

Jednak różnice między tymi produktami są marginalne i impresjonistyczne i wynikają głównie z trudnych do oszacowania atrybutów, takich jak „poczucie siebie” i „dusza” – a raczej to, co uchodzi za nie u agenta AI. Walka toczy się o serca i umysły.

„Mythos to strategiczne ogłoszenie mające pokazać, że są otwarci na biznes” – powiedział Khlaaf, stwierdzając, że ograniczenia wypuszczania Anthropic uniemożliwiły niezależnym ekspertom ocenę twierdzeń firmy.

Zasugerowała, że ​​możemy „widzieć ten sam schemat przynęt i zamiany, jaki był używany przez OpenAI, gdzie bezpieczeństwo jest narzędziem PR pozwalającym zdobyć zaufanie publiczne, zanim zyski będą traktowane priorytetowo” oraz: „Rozgłos antropiczny skuteczniej zaciemnił tę zmianę niż jej rywale”.