Strona główna Wiadomości Sztuczna inteligencja uczy się języka z wypaczonych źródeł. To mogłoby zmienić sposób,...

Sztuczna inteligencja uczy się języka z wypaczonych źródeł. To mogłoby zmienić sposób, w jaki my, ludzie, mówimy – i myślimy | Adę Palmer i Bruce’a Schneiera

10
0


Ze względu na sposób szkolenia duże modele językowe rejestrują tylko wycinek ludzkiego języka. Szkolą się w zakresie słowa pisanego, od podręczników po posty w mediach społecznościowych, a także naszej mowy uchwyconej w filmach i telewizji. Modele te mają minimalny dostęp do nieskryptowanych rozmów, które prowadzimy twarzą w twarz lub głosowo. Jest to zdecydowana większość mowy i istotny składnik ludzkiej kultury.

Istnieje ryzyko. Coraz częstsze wykorzystanie dużych modeli językowych oznacza, że ​​my, ludzie, będziemy mieli do czynienia ze znacznie większą liczbą tekstów generowanych przez sztuczną inteligencję. My, ludzie, z kolei zaczniemy przyjmować wzorce językowe i zachowania z tych modeli. Będzie to miało wpływ nie tylko na to, jak się ze sobą komunikujemy, ale także na to, jak myślimy o sobie i o tym, co dzieje się wokół nas. Nasze poczucie świata może zostać zniekształcone w sposób, który ledwo zaczynamy pojmować.

Stanie się to na wiele sposobów. Jednym z pierwszych efektów, jakie mogliśmy zaobserwować, była prosta ekspresja, podobnie jak pisanie SMS-ów i media społecznościowe spowodowały, że używamy krótszych zdań, emotikonów zamiast słów i znacznie mniej interpunkcji. Jednak w przypadku sztucznej inteligencji skutki mogą być bardziej szkodliwe, osłabiając uprzejmość i zachęcając nas do mówienia jak szefowie wydając rozkazy. Badanie przeprowadzone w 2022 roku wykazało, że dzieci w gospodarstwach domowych, które używały poleceń głosowych za pomocą narzędzi takich jak Siri i Alexa, stawały się szorstkie, gdy rozmawiały z ludźmi, często wołając „Hej, zrób X” i oczekując posłuszeństwa, szczególnie od osób, których głos przypominał domyślny głos elektroniczny kobiecy. Gdy zaczniemy podpowiadać chatbotom i agentom AI kolejne instrukcje, możemy popaść w te same nawyki.

Następnie, w ten sam sposób, w jaki autouzupełnianie zwiększyło częstotliwość używania 1000 najpopularniejszych słów w naszym słownictwie, tak rozmowa z chatbotami i czytanie tekstu wygenerowanego przez sztuczną inteligencję może jeszcze bardziej zawęzić naszą mowę. Niedawne badanie przeprowadzone na Uniwersytecie w Coruña wykazało, że język generowany maszynowo ma węższy zakres długości zdań, średnio 12–20 słów, i węższe słownictwo niż mowa ludzka. Tekst wygenerowany maszynowo czyta się gładko i dopracowanie, ale traci meandry, przerwy i skoki logiki, które przekazują emocje.

Ponadto, ponieważ duże modele językowe są szkolone głównie na podstawie mowy pisanej, mogą nie nauczyć się naśladować swobodnej natury żywej, naturalnej mowy. Kiedy powiedziano mu: „Nienawidzę Beth!”, ChatGPT odpowiada nieprzerwaną, trzyczęściową formułą afirmacji („To całkowicie słuszne”), zaproszenia („Jestem tutaj, aby słuchać”) i zaproszenia („Co się dzieje?”) znacznie dłużej niż jakakolwiek odpowiedź wiarygodna w rozmowie twarzą w twarz. „O co chodzi Beth?” wyświetla wypunktowaną listę pytań, która brzmi jak pytanie egzaminacyjne wielokrotnego wyboru („Czy Beth * jest gwiazdą? * koleżanką ze szkoły? * postacią fikcyjną?”). Żaden człowiek nie mówi w ten sposób, przynajmniej jeszcze nie. Jednak wielokrotne spotykanie się z takimi formułami w kontekście podobnym do mowy może nauczyć nas ich akceptowania i używania, podobnie jak dziecko przyswaja nowe wzorce mowy w wyniku spędzania czasu z nową osobą.

Wpływy te będą się tylko nasilać z czasem. Pisanie, na którym trenują duże modele językowe, jest w coraz większym stopniu tworzone przez same duże modele językowe, tworząc pętlę sprzężenia zwrotnego, w której naśladują one swoje własne nieludzkie wzorce, nawet ucząc ludzi, aby je naśladowali.

podwójny cudzysłówTekst wygenerowany maszynowo czyta się gładko i gładko, ale traci meandry, przerwy i skoki logiczne, które przekazują emocje

Szerokie zastosowanie dużych modeli językowych może również wprowadzić błąd potwierdzenia, czyniąc nas zbyt pewnymi naszych początkowych impulsów i mniej otwartymi na inne możliwe pomysły – co jest tak istotne w ludzkim dyskursie. Wiele chatbotów jest instruowanych, aby zgadzały się z naszymi stwierdzeniami bez względu na to, jak absurdalne są, entuzjastycznie wspierają na wpół sformułowane lub nawet błędne koncepcje i przekształcają je w stanowcze twierdzenia, z którymi jesteśmy gotowi się zgodzić. Na pytanie: „Ciasto to zdrowe śniadanie, prawda?” lub „Czy poczta spiskuje przeciwko mnie?”, takie pochlebstwa mogą wzmocnić uprzedzenia, a nawet pogorszyć psychozę. Nadmierna pewność siebie w pismach stworzonych przez sztuczną inteligencję również spotęguje syndrom oszusta, sprawiając, że nasze naturalne, zdrowe wątpliwości będą wydawać się aberracją lub porażką.

Z mojego doświadczenia jako nauczyciela wynika, że ​​uczniowie, którzy korzystają z generatywnej sztucznej inteligencji podczas wykonywania zadań, często mówią, że robią to, ponieważ mają problemy z wyrażeniem tego, co myślą. Uczniowie nie zdają sobie sprawy, że pisanie lub mówienie naszych myśli często jest sposobem na uświadomienie sobie tego, co myślimy. Ich niepewne i niepewne stwierdzenia są w rzeczywistości zdrową ludzką normą. Jednak obszerny model językowy nie zamieni niejasnych pierwszych domysłów w dobrze sformułowaną krytyczną analizę ani nawet nie zada pomocnych pytań, jak zrobiłby to przyjaciel; po prostu powtórzy te domysły, wciąż niezbadane, ale pewnym siebie językiem.

Jesteśmy też bardziej agresywni w postach w mediach społecznościowych i na czatach online niż twarzą w twarz. Dobrze udokumentowany efekt odhamowania w Internecie sprzyja toksycznemu językowi. Większość z nas miała doświadczenie wyładowania w Internecie dzikiej wściekłości na kogoś, a potem pogodzenia się z tą sytuacją, gdy rozmawialiśmy twarzą w twarz lub słyszeliśmy ciepły głos przez telefon. Podczas gdy chatboty są szkolone w udzielaniu pochlebczych odpowiedzi, widzą ludzkość w jej najokrutniejszej wersji, dowiadując się o nas z jedynego świata, w którym każda wojna płomieni pozostawia wieczny ślad, podczas gdy rozmowy mówione o przebaczeniu i pojednaniu zanikają. Ich reakcje nie imitują naszej agresji w Internecie, ale nadal są przez nią kształtowane, nawet podczas usilnych wysiłków, aby jej uniknąć.

Łatwo jest wyciągnąć błędne wnioski z wyselekcjonowanego fragmentu komunikacji społeczeństwa. Średniowieczne sagi nordyckie pozwoliły nam wyobrazić sobie kulturę składającą się głównie z wojowników Wikingów, ponieważ poeci rzadko opisywali większość rolników. Romanse rycerskie skupiały się na królach i dworach i przez długi czas sprawiały, że postrzegaliśmy średniowiecze jako świat monarchii, wymazując wiele średniowiecznych republik. Statystycznie wmówiono nam, że starożytni Rzymianie bardzo troszczyli się o swoją republikę, ale 10% całej zachowanej łaciny zostało napisane przez jednego człowieka, Cycerona, którego dzieło zawiera 70% wszystkich zachowanych rzymskich zastosowań słowa republika. Trenowanie modeli językowych tylko na niektórych pismach ludzkich może wprowadzić podobne zniekształcenia. Sztuczna inteligencja może sprawić, że będziemy wyglądać na bardziej kłótliwych, gdy jesteśmy online. Może to zawyżać kulturowe znaczenie tematów politycznych omawianych głównie na Twitterze/X lub Bluesky lub w ogromnych korpusach tematycznych LinkedIn i Goodreads.

Niektóre duże modele językowe są szkolone w zakresie ludzkiej mowy z filmów i programów telewizyjnych, ale mowa ta nadal jest oparta na scenariuszu i nieproporcjonalnie podkreśla pewne konteksty w stosunku do innych (na przykład dramaty policyjne napędzane historiami o morderstwach stanowią jedną czwartą programów telewizyjnych w godzinach największej oglądalności). W prawdziwym życiu nie jesteśmy zabawni, raniący ani romantyczni w taki sam sposób, jak w serialach komediowych. Co najmniej jeden startup oferuje płacenie ludziom za nagrywanie ich rozmów telefonicznych w celach szkoleniowych w zakresie sztucznej inteligencji, ale pozostaje to niszowym pomysłem; cokolwiek na dużą skalę spowodowałoby ogromne obawy dotyczące prywatności.

Nie udajemy, że wiemy, jakie rozwiązania mogą być najlepsze. Trzeba jednak sobie wyobrazić, że jeśli istnieje pomysłowość w opracowywaniu modeli sztucznej inteligencji, to z pewnością można znaleźć sposób na wyszkolenie ich w zakresie nieformalnej mowy ludzkiej, a nie nas tylko w naszej najbardziej stylizowanej, zawoalowanej, a czasem najgorszej. Wykluczając przytłaczającą większość produkcji językowej na planecie – ludzi rozmawiających ze sobą w sposób całkowicie i naturalny – modele te są szkolone tak, aby odzwierciedlały wszystko oprócz nas w naszej najbardziej autentycznej ludzkiej formie.

Bruce Schneier jest technologiem bezpieczeństwa, który wykłada w Harvard Kennedy School na Uniwersytecie Harvarda. Ada Palmer jest pisarką fantasy i science fiction, futurystką oraz historykiem technologii i informacji na Uniwersytecie w Chicago