WASZYNGTON: YouTube oferuje hollywoodzkim celebrytom i artystom bezpłatne narzędzie do wykrywania, które pomaga zwalczać ich deepfake, zwiększając wysiłki platformy wideo należącej do Google w zakresie ochrony przed podszywaniem się pod sztuczną inteligencję.
W zeszłym miesiącu YouTube wprowadził narzędzie do ochrony podobieństwa, które pomaga urzędnikom państwowym, dziennikarzom i kandydatom politycznym identyfikować treści, w których twarz wydaje się zmieniona lub wygenerowana przy użyciu technologii sztucznej inteligencji.
Platforma zapewnia obecnie dostęp do artystów, w tym aktorów i muzyków, którzy są narażeni na zwiększone ryzyko niewłaściwego wykorzystania swojego wizerunku, co może zaszkodzić ich karierom i zniekształcić wspólną rzeczywistość.
„Rozszerzamy naszą technologię wykrywania podobieństwa na branżę rozrywkową: agencje talentów, firmy zarządzające i reprezentowane przez nie gwiazdy” – oznajmił YouTube na początku tego tygodnia.
Wykrywanie podobieństwa „wyszukuje treści generowane przez sztuczną inteligencję zawierające podobieństwo uczestnika, na przykład fałszywą fałszywą twarz, i daje mu możliwość jego znalezienia i zażądania usunięcia”.
Gigant wideo dodał, że celebryci i artyści mogą uzyskać dostęp do narzędzia niezależnie od tego, czy mają kanał na YouTube.
„Udostępnienie osobom publicznym YouTube możliwości wykrywania deepfake’ów odzwierciedla punkt zwrotny w podejściu platform do ochrony tożsamości w epoce generatywnej sztucznej inteligencji” – powiedział Alon Yamin, dyrektor naczelny i współzałożyciel platformy Copyleaks do wykrywania treści AI.
„Technologia replikacji twarzy, głosu i manier człowieka rozwija się szybciej niż otaczające ją zabezpieczenia, tworząc lukę, którą już wykorzystują źli aktorzy”.
Wysoka stawka
Decyzja ta następuje po tym, jak hiperrealistyczne filmy AI przedstawiające zmarłe gwiazdy – utworzone za pomocą aplikacji takich jak łatwa w obsłudze Sora OpenAI – szybko rozprzestrzeniły się w Internecie, wywołując debatę na temat kontroli podobizny zmarłych osób.
Aplikacja OpenAI wygenerowała także powódź filmów z gwiazdami, takimi jak Michael Jackson i Elvis Presley.
W zeszłym miesiącu OpenAI poinformowało, że zamyka aplikację Sora.
W lutym irlandzki reżyser Ruair Robinson stworzył oszałamiająco realistyczny klip, w którym Brad Pitt walczy z Tomem Cruisem na dachu, używając dwuzdaniowej podpowiedzi.
Szeroko rozpowszechniony klip, który wywołał alarm w całym Hollywood, został wygenerowany za pomocą Seedance 2.0, narzędzia do generowania wideo opartego na sztucznej inteligencji, którego właścicielem jest chińska firma technologiczna ByteDance.
Robinson stworzył także inne filmy przedstawiające Pitta walczącego z uzbrojonym w miecz „ninja zombie”, a także inny pokazujący jego współpracę z Cruisem w walce z robotem.
Charles Rivkin, prezes i dyrektor naczelny stowarzyszenia Motion Picture Association, wezwał ByteDance do „natychmiastowego zaprzestania działalności naruszającej prawa autorskie”, zarzucając mu lekceważenie prawa autorskiego, które chroni twórców i stanowi podstawę milionów miejsc pracy.
YouTube poinformował, że współpracuje z wiodącymi agencjami talentów, aby udoskonalić sposób, w jaki wykrywanie podobieństwa może chronić artystów.
Gigant wideo „postępuje słusznie, udostępniając talentom bezpłatnie te narzędzia, aby mogli chronić swoją nieruchomość” – powiedział The Hollywood Reporter Jason Newman z firmy zarządzającej i produkcyjnej Untitled Entertainment.
„Ich nieruchomością jest ich twarz. Ich nieruchomością jest ich ciało. Ich nieruchomością jest to, kim są, co robią i jak to mówią. „
Rozszerzenie narzędzia do wykrywania jest następstwem skarg znanych osobistości amerykańskich na temat uciążliwego procesu YouTube polegającego na oznaczaniu i usuwaniu deepfake’ów z platformy – zwłaszcza że sztuczna inteligencja przyspiesza tworzenie sfabrykowanych treści.
„W przypadku celebrytów, kadry kierowniczej i innych znanych osobistości stawka jest szczególnie wysoka, ponieważ deepfake mogą być wykorzystywane do szerzenia dezinformacji, manipulowania rynkiem, niszczenia reputacji lub fałszywie sugerowania poparcia. Solidne wykrywanie nie jest już opcjonalne” – powiedział Yamin.
„Aby systemy wykrywania były skuteczne, muszą być bardzo dokładne, stale aktualizowane i powiązane z jasnymi zasadami i szybkimi procesami usuwania.
„Nie wyeliminuje to całkowicie deepfakes, ale może znacznie zmniejszyć ich zasięg i wpływ, utrudniając niezauważenie i zakwestionowanie zmanipulowanych treści” – dodał.
Opublikowano w Dawn, 25 kwietnia 2026 r