Strona główna Świat UNICEF wyraża zaniepokojenie w związku z seksualizowanymi wizerunkami dzieci generowanymi przez sztuczną...

UNICEF wyraża zaniepokojenie w związku z seksualizowanymi wizerunkami dzieci generowanymi przez sztuczną inteligencję i wzywa rządy do podjęcia działań

40
0

Fundusz Narodów Zjednoczonych na rzecz Pomocy Dzieciom (Unicef) stwierdził w czwartek, że jest coraz bardziej „zaniepokojony” doniesieniami o generowanych przez sztuczną inteligencję obrazach przedstawiających seksualizację dzieci, wzywając rządy i branżę sztucznej inteligencji do zapobiegania tworzeniu i rozpowszechnianiu takich treści.

W oświadczeniu agencja ONZ stwierdziła: „Szkody wynikające z wykorzystywania fałszywych informacji są realne i pilne. Dzieci nie mogą czekać, aż prawo nadrobi zaległości”.

„Deepfakes – obrazy, filmy lub dźwięk generowane lub manipulowane przy użyciu sztucznej inteligencji zaprojektowanej tak, aby wyglądały prawdziwie – są coraz częściej wykorzystywane do tworzenia treści o charakterze seksualnym z udziałem dzieci w drodze „nudyfikacji”, podczas której narzędzia sztucznej inteligencji są wykorzystywane do rozbierania lub przerabiania ubrań na zdjęciach w celu tworzenia sfabrykowanych nagich lub seksualnych obrazów” – stwierdził Unicef ​​w swoim oświadczeniu.

Dodał, że „bezprecedensowa” sytuacja stwarza nowe wyzwania dla „profilaktyki, edukacji, ram prawnych oraz usług reagowania i wsparcia dla dzieci”.

Obecne wysiłki zapobiegawcze były „niewystarczające, skoro treści o charakterze seksualnym można wytwarzać sztucznie”.

W oświadczeniu stwierdzono, że rosnące rozpowszechnienie narzędzi do generowania obrazów lub filmów wykorzystujących sztuczną inteligencję, które wytwarzają materiały o charakterze seksualnym, oznacza „znaczący wzrost” zagrożeń dla dzieci ze względu na technologie cyfrowe.

UNICEF w swoim oświadczeniu nawiązał do niedawnego zakrojonego na szeroką skalę badania, które agencja przeprowadziła wraz z grupą zajmującą się prawami dziecka ECPAT i Interpolem w ramach projektu „Disrupting Harm”.

Badanie wykazało, że w 11 krajach co najmniej 1,2 miliona dzieci zgłosiło, że w zeszłym roku ich zdjęcia zmanipulowano w fałszywe treści o charakterze jednoznacznie seksualnym za pomocą narzędzi sztucznej inteligencji.

W niektórych krajach odsetek ten wynosił 1 na 25 dzieci, czyli równowartość jednego dziecka w typowej klasie.

„Same dzieci są głęboko świadome tego ryzyka. W niektórych krajach aż dwie trzecie dzieci stwierdziło, że obawia się, że sztuczna inteligencja może zostać wykorzystana do tworzenia fałszywych obrazów lub filmów o charakterze seksualnym” – czytamy w oświadczeniu.

Dodał, że „poziom obaw znacznie się różni w poszczególnych krajach, co podkreśla pilną potrzebę wprowadzenia większej świadomości, środków zapobiegawczych i ochronnych”.

„Musimy wyrazić się jasno. Zseksualizowane obrazy dzieci generowane lub manipulowane przy użyciu narzędzi AI stanowią materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM).

Agencja ONZ stwierdziła, że ​​„fałszywe nadużycia są nadużyciami i nie ma nic fałszywego w wyrządzanych przez nie szkodach”.

W oświadczeniu podkreślono, że „kiedy wykorzystuje się wizerunek lub tożsamość dziecka, dziecko to staje się bezpośrednio ofiarą.

„Nawet bez możliwej do zidentyfikowania ofiary CSAM generowany przez sztuczną inteligencję normalizuje wykorzystywanie seksualne dzieci, zwiększa popyt na obraźliwe treści i stwarza poważne wyzwania dla organów ścigania w zakresie identyfikowania i ochrony dzieci potrzebujących pomocy”.

W związku z tym agencja ONZ stwierdziła, że ​​z zadowoleniem przyjmuje „wysiłki twórców sztucznej inteligencji, którzy wdrażają podejście uwzględniające bezpieczeństwo już na etapie projektowania i solidne bariery zabezpieczające, aby zapobiec niewłaściwemu wykorzystaniu swoich systemów”.

Jednak UNICEF ostrzegł, że krajobraz nadal „pozostaje nierówny, a wiele modeli sztucznej inteligencji nie jest opracowywanych przy odpowiednich zabezpieczeniach”.

Podkreślono, że „ryzyko może się zwiększyć, gdy narzędzia generatywnej sztucznej inteligencji zostaną osadzone bezpośrednio na platformach mediów społecznościowych, gdzie zmanipulowane obrazy szybko się rozprzestrzeniają”.

„UNICEF pilnie wezwał do podjęcia działań w celu stawienia czoła rosnącemu zagrożeniu ze strony materiałów przedstawiających wykorzystywanie seksualne dzieci generowane przez sztuczną inteligencję”.

W oświadczeniu stwierdzono, że wszystkie rządy powinny rozszerzyć definicje CSAM, aby uwzględnić treści generowane przez sztuczną inteligencję, oraz uznać za przestępstwo ich tworzenie, pozyskiwanie, posiadanie i dystrybucję.

Ponadto nalegał na twórców sztucznej inteligencji, aby wdrożyli podejście uwzględniające bezpieczeństwo już na etapie projektowania i solidne poręcze zabezpieczające, aby zapobiec niewłaściwemu wykorzystaniu modeli sztucznej inteligencji.

UNICEF stwierdził ponadto, że „firmy cyfrowe zapobiegają obiegowi materiałów przedstawiających wykorzystywanie seksualne dzieci wygenerowanych przez sztuczną inteligencję – a nie tylko usuwają je po wystąpieniu molestowania; oraz wzmacniają moderację treści poprzez inwestycje w technologie wykrywania, aby takie materiały można było usunąć natychmiast – a nie kilka dni po zgłoszeniu przez ofiarę lub jej przedstawiciela”.

Kwestia seksualnych obrazów generowanych przez sztuczną inteligencję zyskała ostatnio uwagę po tym, jak platforma X Elona Muska znalazła się pod ostrzałem po tym, jak przyłapano użytkowników na wykorzystywaniu znajdującego się na platformie narzędzia sztucznej inteligencji Grok do edytowania i manipulowania zdjęciami, w tym do cyfrowego rozbierania ludzi – w tym dzieci – lub przedstawiania ich w minimalistycznych ubraniach.

Komisja Europejska zapowiedziała również, że zbada, czy platforma mediów społecznościowych X chroni konsumentów poprzez odpowiednią ocenę i ograniczanie ryzyka związanego z funkcjonalnościami Groka.