Witamy w TechScape. Jestem twoim gospodarzem, Blake Montgomery, redaktor techniczny Guardiana w USA, piszący do ciebie z mojej szczęśliwej wioski w Pokopii.
Gdzie leży prawda o sztucznej inteligencji?
Firmy zajmujące się sztuczną inteligencją tworzą potężne produkty. Wysuwają też dziwaczne twierdzenia.
W zeszłym tygodniu firma Anthropic wypuściła Claude Mythos, model sztucznej inteligencji skupiający się na cyberbezpieczeństwie, który wywołał powszechny dreszczyk emocji i panikę w związku z jego zdolnościami. Jest jednak pewien haczyk: społeczeństwo nie może tego dotknąć. Pod koniec ubiegłego tygodnia OpenAI oświadczyło, że również opracowało sztuczną inteligencję o przerażających możliwościach w zakresie cyberbezpieczeństwa.
Anthropic nazwał Mythos „rozliczeniem” dla branży cyberbezpieczeństwa ze względu na skuteczność nowego narzędzia w ujawnianiu słabych punktów oprogramowania. Według Anthropic firma Mythos odsłoniła tysiące luk w powszechnie używanych aplikacjach, dla których nie ma żadnej łatki ani poprawki, co skłoniło startup do zawarcia sojuszu ze specjalistami ds. cyberbezpieczeństwa o pseudonimie Project Glasswing w celu wzmocnienia zabezpieczeń przed hakerami i wstrzymania modelu z szerokiej dystrybucji, podobnie jak w przypadku filmu artystycznego wyświetlanego wyłącznie w Los Angeles i Nowym Jorku.
Shakeel Hashim pisze w artykule opublikowanym w Guardianie:
Firma twierdzi, że Mythos znalazła luki w zabezpieczeniach każdej większej przeglądarki i systemu operacyjnego. Innymi słowy, ten nowy model sztucznej inteligencji może pomóc hakerom w zakłócaniu działania większości najważniejszego oprogramowania na świecie.
Gdyby taka technologia była powszechnie dostępna i tak wydajna, jak twierdzi Anthropic, konsekwencje mogłyby być katastrofalne. Cyberataki nie są już problemem wyłącznie cyfrowym. Prawie wszystko, na czym polegamy w świecie fizycznym, wiąże się z oprogramowaniem. W ostatnich latach lotniska, szpitale i sieci transportowe zostały zniszczone przez cyberataki. Do tej pory ataki na tę skalę wymagały poważnej wiedzy specjalistycznej. Mythos udostępniłby tę możliwość amatorom i zwiększył zdolność profesjonalistów do siania spustoszenia.
Jednak eksperci ds. cyberbezpieczeństwa już teraz odpierają twierdzenia Anthropic. Moja koleżanka Aisha Down donosi:
Nie jest jasne, czy Anthropic zbudował boga maszynę. Bardziej widoczne jest to, że startup z San Francisco, powszechnie postrzegany jako „odpowiedzialna” firma zajmująca się sztuczną inteligencją, jest genialny w marketingu.
„Mythos to prawdziwy rozwój i Anthropic słusznie potraktował go poważnie” – powiedział Jameison O’Reilly, ekspert ds. cyberbezpieczeństwa ofensywnego. Stwierdził jednak, że niektóre twierdzenia Anthropic, np. wykrycie tysięcy „luk dnia zerowego” w głównych systemach operacyjnych, nie mają aż tak dużego znaczenia z punktu widzenia cyberbezpieczeństwa w świecie rzeczywistym.
W 2017 roku redaktor techniczny BuzzFeed News argumentował, że największą siłą Apple jest inżynieria pragnień. Zgadzam się, a Anthropic wydaje się posiadać podobny geniusz. Technologia jest potężna, ale manipulowanie uwagą również. Podobnie jak prawdziwie rewolucyjny iPhone firmy Apple, Claude to prawdziwa okazja. Firmy nie mają dość jego możliwości kodowania. Poważne firmy – Apple, Nvidia, Google, JPMorganChase, Amazon Web Services, Broadcom – nawiązały współpracę z Anthropic przy projekcie Glasswing. Jednakże sprytnym marketingiem jest stwierdzenie: „Nie możesz tego mieć, jest za mocne”. Nic nie wywołuje silniejszego pragnienia niż powstrzymywanie się. Według Bloomberga o Anthropic było głośno w zeszłym tygodniu na konferencji HumanX AI w San Francisco.
Od czasu pojawienia się tej technologii szum przesłania społeczeństwu zrozumienie generatywnej sztucznej inteligencji. Równie długo dziennikarze i bystrzy obserwatorzy próbowali to przebić. W 2019 r. firma Slate opublikowała artykuł: „OpenAI twierdzi, że jego algorytm generujący tekst GPT-2 jest zbyt niebezpieczny, aby go wypuścić” (głowa dla @Banteg z X za ujawnienie tej historii w tweecie). Nagłówki mogą wyglądać podobnie, ponieważ dyrektor generalny Anthropic, Dario Amodei, był kiedyś wiceprezesem ds. badań w OpenAI. Odszedł z firmy w 2020 roku. OpenAI również przez wiele miesięcy wstrzymywał się od szerokiego udostępnienia swojego generatora wideo Sora. Czy to zabiło Hollywood i kręcenie filmów, jakie znamy? Nie. Firma zamknęła Sorę pod koniec zeszłego miesiąca.
Obawy dotyczące zagrożeń związanych z generowaniem prostego tekstu mogą wydawać się osobliwe w porównaniu z całkowitym końcem bezpieczeństwa cyfrowego, ale fakt, że pokonaliśmy obawy z 2019 r., wskazuje na pokrzepiające prawdopodobieństwo: odejdziesz również od dzisiejszych obaw przed upadkiem cyberbezpieczeństwa, osiedlając się w rzeczywistości pośredniej między obecnym status quo a hiperboliczną przyszłością.
Przeczytaj więcej: Firmy zajmujące się sztuczną inteligencją wiedzą, że mają problem z wizerunkiem. Czy dokumenty dotyczące polityki finansowania i zespoły doradców je odkopią?
Przeróbka: Seria Guardiana o sztucznej inteligencji i przyszłości pracy Jak dochodzenie Guardiana ujawniło handel dziećmi w celach seksualnych na Facebooku i InstagramieMark Zuckerberg podczas przesłuchania na Kapitolu w styczniu 2024 r. Zdjęcie: Roberto Schmidt/AFP/Getty Images
Dwa tygodnie temu w Nowym Meksyku Meta przegrała wielomilionowy spór prawny w związku z tym, że nie zapobiegła sprzedaży dzieci na swoich platformach. Wieloletnia autorka Guardiana, Katie McQue, odkryła dowody, które stały się częścią sprawy przeciwko technologicznemu gigantowi. W zeszłym tygodniu szczegółowo opisała swój proces raportowania śledczego w artykule:
Zaczęło się od podpowiedzi. Pisałem o handlu i wyzysku pracowników migrujących w Zatoce Perskiej, kiedy skontaktowało się ze mną źródło, które znałem od ponad dziesięciu lat. Powiedzieli mi, że handel ludźmi związanymi z wykorzystywaniem seksualnym dzieci w USA gwałtownie rośnie. Gdy pandemia Covida wypchnęła drapieżniki do Internetu, niektórzy korzystali z Facebooka i Instagrama, aby kupować i sprzedawać dzieci.
Był rok 2021 i miałem właśnie rozpocząć śledztwo z Mei-Ling McNamarą, dziennikarką zajmującą się prawami człowieka, które w marcu tego roku doprowadziło do przegranej przez firmę technologiczną Meta wielomilionowej sprawy sądowej. Firma nie zmieniła jeszcze marki i działała pod nazwą Facebook. Nie było też żadnych doniesień na temat handlu dziećmi na jej platformach. Eksperci z organizacji non-profit zajmujących się zwalczaniem handlu ludźmi oraz urzędnik amerykańskich organów ścigania opowiedzieli mi o przestępstwach, które widzieli.
Duża część handlu na Facebooku i Instagramie miała miejsce w niepublicznych obszarach platform, takich jak Facebook Messenger i prywatne konta na Instagramie, o czym dowiem się później. Handlarze szukali nastolatków, do których mogliby dotrzeć i pielęgnować, a później reklamować się osobom kupującym usługi seksualne.
W lipcu 2022 r. pojechaliśmy do Waszyngtonu, aby odwiedzić kryjówkę prowadzoną przez organizację non-profit Courtney’s House, która opiekuje się kolorowymi nastolatkami, które przeżyły handel ludźmi lub są aktywnie ofiarami handlu ludźmi.
Jego lokalizacja nie jest publiczna, a adres wysłano nam dopiero na godzinę przed spotkaniem. Courtney’s House prowadzona jest przez Tinę Frundt, ofiarę handlu ludźmi i byłą członkinię Amerykańskiej Rady Doradczej ds. Handlu Ludźmi za rządów Obamy.
Dalszą część jej wypowiedzi przeczytasz tutaj: „Zaczęło się od cynku”: jak dochodzenie Guardiana ujawniło handel dziećmi w celach seksualnych na Facebooku i Instagramie
Pełne śledztwo można przeczytać tutaj: Jak Facebook i Instagram stały się platformami handlowymi handlu dziećmi w celach seksualnych
Szerszy TechScape