Przejdź przez ChatGPT. Chile we wtorek uruchomiło Latam-GPT, model sztucznej inteligencji o otwartym kodzie źródłowym dla regionu, zaprojektowany w celu zwalczania uprzedzeń nieodłącznie związanych z branżą skoncentrowaną na USA.
Opracowany przez chilijskie Krajowe Centrum Sztucznej Inteligencji (Cenia), Latam-GPT wykorzystuje miliony punktów danych zebranych w Ameryce Łacińskiej, aby zaprezentować różnorodność kulturową kontynentu.
„Dzięki Latam-GPT pozycjonujemy region jako aktywnego i suwerennego gracza w gospodarce przyszłości” – powiedział o tej inicjatywie Prezydent Gabriel Boric.
„Jesteśmy przy stole, nie ma nas w menu” – dodał.
Według ministra nauki Chile Aldo Valle program został stworzony, aby zwalczać, jak to określił, uprzedzenia i uogólnienia na temat ludzi i krajów z regionu.
Ameryka Łacińska – dodał – „nie może być po prostu biernym użytkownikiem lub odbiorcą systemów sztucznej inteligencji. Mogłoby to skutkować utratą znacznej części naszych tradycji”.
W przeciwieństwie do zamkniętych modeli generatywnych, takich jak ChatGPT czy Google Gemini, Latam-GPT jest modelem otwartym, z którego programiści mogą korzystać w celu dostosowywania części oprogramowania do swoich potrzeb.
Wkład w projekt i dane do szkolenia modelu dostarczyły uniwersytety, fundacje, biblioteki, instytucje rządowe i organizacje społeczeństwa obywatelskiego z Ameryki Łacińskiej w takich krajach, jak Argentyna, Brazylia, Chile, Kolumbia, Ekwador, Meksyk, Peru i Urugwaj.
„Modele opracowane w innych częściach świata zawierają dane z Ameryki Łacińskiej, ale stanowi to dość niewielką ich część” – zauważył dyrektor Cenia Alvaro Soto.
Ten niski poziom zróżnicowanego wkładu znajduje czasami odzwierciedlenie w przedstawieniach mieszkańców Ameryki Łacińskiej za pomocą głównych modeli sztucznej inteligencji. Na przykład ChatGPT przedstawia typowego chilijskiego mężczyznę jako osobę ubraną w poncho z Andami w tle.
Treść rodzima
Największe amerykańskie firmy technologiczne dominują w światowym wyścigu sztucznej inteligencji, przy czym tanie chińskie modele szybko zyskują na popularności, a Europa pozostaje w tyle na trzecim miejscu.
Inne regiony świata również dostrzegają znaczenie opracowania publicznych modeli sztucznej inteligencji, które respektują ich normy kulturowe i standardy bezpieczeństwa.
W 2023 r. badacze z Singapuru udostępnili model SEA-LION o otwartym kodzie źródłowym, dotyczący języków Azji Południowo-Wschodniej w jednej sieci, natomiast w Kenii UlizaLLama LLM zapewnia usługi zdrowotne przyszłym matkom mówiącym w języku suahili.
Latam-GPT został przeszkolony na ponad ośmiu terabajtach danych, co odpowiada milionom książek.
Został opracowany za jedyne 550 000 dolarów, pochodzących głównie z Banku Rozwoju Ameryki Łacińskiej (CAF) i zasobów własnych Ceni.
Pierwszą wersję opracowano w chmurze Amazon Web Services, ale w przyszłości Latam-GPT będzie trenowany na superkomputerze na Uniwersytecie Tarapaca w północnym Chile.
Na razie jest szkolony głównie w zakresie treści hiszpańskich i portugalskich, chociaż jego twórcy planują włączyć materiały w rdzennych językach Ameryki Łacińskiej.
Slang i powiedzenia
Latam-GPT będzie dostępny bezpłatnie dla firm i instytucji publicznych w celu opracowywania aplikacji bardziej specyficznych dla Ameryki Łacińskiej, powiedział Soto, dyrektor Cenia.
Przytoczył potencjalne zastosowania dla szpitali „mających problemy logistyczne lub z wykorzystaniem zasobów medycznych”.
Jego niewielki budżet oznacza, że Latam-GPT „nie ma szans” konkurować z głównymi modelami sztucznej inteligencji, powiedział AFP Alejandro Barros, profesor na Wydziale Inżynierii Przemysłowej Uniwersytetu Chile.
Ale przekonał już chilijskiego seryjnego przedsiębiorcę cyfrowego Roberto Musso, którego firma Digevo planuje wykorzystać Latam-GPT do opracowania programów obsługi klienta dla linii lotniczych i sprzedawców detalicznych.
Musso powiedział, że jego klienci „byli bardzo zainteresowani tym, aby ich użytkownicy mogli wypowiadać się i otrzymywać odpowiedzi w lokalnym języku”.
Latam-GPT, powiedział, zapewnia możliwość rozpoznawania regionalnego „slangu, idiomów, a nawet tempa mówienia” i unikania uprzedzeń, które mogłyby pojawić się w innych modelach sztucznej inteligencji.








