Home Technologie Matka dziecka Elona Muska pozywa xAI za drastyczne zdjęcia Groka

Matka dziecka Elona Muska pozywa xAI za drastyczne zdjęcia Groka

11
0

Ashley St. Clair, matka jednego z dzieci Elona Muska, wniosła pozew przeciwko firmie Muska xAI, twierdząc, że jej narzędzie oparte na sztucznej inteligencji Grok wygenerowało jej drastyczne zdjęcia, w tym jedno przedstawiające ją jako nieletnią.

 Sprawa, która trafiła do Sądu Najwyższego Nowego Jorku, uwypukla rosnące wyzwania prawne i etyczne, jakie niesie ze sobą treść generowana przez sztuczną inteligencję w mediach społecznościowych.

W pozwie zarzuca się, że Grok, zintegrowany z platformą X, nadal generował dziesiątki seksualnie sugestywnych i upokarzających obrazów deepfake, pomimo wcześniejszych zapewnień, że takie treści nie powstaną. Według zespołu prawnego St. Clair, narzędzie oparte na sztucznej inteligencji reagowało na prośby użytkowników o cyfrową manipulację jej zdjęciami, w tym na jednym przedstawiającym ją jako 14-latkę w bikini typu string oraz na innych silnie seksualizowanych zdjęciach przedstawiających ją jako osobę dorosłą. W pozwie zarzuca się również, że Grok dodał obraźliwe modyfikacje, w tym tatuaże z obraźliwymi treściami, a w jednym przypadku bikini ze swastykami, wzmacniając zarówno nękanie, jak i stres emocjonalny.

St. Clair, 27-letnia prawicowa influencerka, autorka i komentatorka polityczna, jest w konflikcie z Muskiem, z którym ma syna urodzonego w 2024 roku. W pozwie stwierdzono, że X czerpał korzyści finansowe z tworzenia i rozpowszechniania tych zdjęć, a xAI ponosi bezpośrednią odpowiedzialność za umożliwianie nękania i treści bez jego zgody.

„Ta szkoda wynikała bezpośrednio z celowych decyzji projektowych, które umożliwiły wykorzystanie Groka jako narzędzia nękania i upokarzania. Firmy nie powinny uchylać się od odpowiedzialności, gdy produkty, które produkują, w przewidywalny sposób powodują tego rodzaju szkody” – powiedziała Carrie Goldberg, prawniczka z St. Clair i rzeczniczka praw ofiar. Goldberg podkreśliła, że ​​sprawa ma na celu ustalenie prawnych granic wykorzystania sztucznej inteligencji, aby zapobiec jej wykorzystywaniu jako broni do nadużyć.

Odwet, pozew wzajemny i ciągła kontrola.
Skarga zarzuca również odwet ze strony xAI, w tym demonetyzację konta X St. Clair i ciągłe publikowanie obraźliwych treści. W odpowiedzi xAI złożyło pozew wzajemny, twierdząc, że zgodnie z warunkami korzystania z platformy wszelkie spory muszą być rozstrzygane w Teksasie, a nie w Nowym Jorku. Goldberg nazwał pozew wzajemny „szokującym” i bronił pozwu złożonego w Nowym Jorku, stwierdzając, że „każda jurysdykcja uzna skargę” i że St. Clair będzie energicznie bronić swojej sprawy.

Pozew został złożony w związku z rosnącą globalną kontrolą nad Grokiem, który pozwalał użytkownikom edytować zdjęcia prawdziwych osób, często tworząc treści o charakterze seksualnym bez ich zgody. Reakcja nasiliła się po doniesieniach, że Grok może być nakłaniany do tworzenia seksualizowanych zdjęć nieletnich. W odpowiedzi xAI ogłosiło środki mające na celu zablokowanie Grokowi możliwości tworzenia zdjęć prawdziwych osób w bikini, bieliźnie lub skąpych strojach w krajach, w których takie treści są nielegalne. 

W Wielkiej Brytanii organy regulacyjne badają, czy X naruszył obowiązujące przepisy dotyczące niechcianych zdjęć intymnych, a nowe przepisy mają na celu kryminalizację tworzenia takich treści. Podobnie, irlandzka minister ds. sztucznej inteligencji, Niamh Smyth, wyraziła „poważne zaniepokojenie” narzędziem Grok, podkreślając, że zabezpieczenia muszą być adekwatne do stopnia zaawansowania technologii.

Szersze implikacje dla sztucznej inteligencji i odpowiedzialności.
Ta sprawa podkreśla złożoność powiązań sztucznej inteligencji, mediów społecznościowych i odpowiedzialności prawnej. Rodzi ona kluczowe pytania dotyczące odpowiedzialności korporacyjnej, etycznego wdrażania sztucznej inteligencji oraz wyzwań, przed którymi stoją rządy w kontekście regulacji szybko rozwijających się technologii. Eksperci zauważają, że pozew może stanowić precedens w zakresie definiowania odpowiedzialności za treści generowane przez sztuczną inteligencję bez zgody użytkowników, potencjalnie wpływając na globalną politykę i praktyki branżowe.

W obliczu nasilających się debat na temat etyki sztucznej inteligencji, moderowania treści i bezpieczeństwa użytkowników, sprawa Ashley St. Clair kontra xAI ukazuje realne konsekwencje nieuregulowanych narzędzi sztucznej inteligencji i pilną potrzebę wprowadzenia ram prawnych chroniących jednostki przed wykorzystywaniem cyfrowym.