Strona główna Wiadomości „Nieodpowiedzialna porażka”: Google, Meta, Snap i Microsoft ostro krytykują UE w związku...

„Nieodpowiedzialna porażka”: Google, Meta, Snap i Microsoft ostro krytykują UE w związku z wygaśnięciem prawa dotyczącego wykorzystywania seksualnego dzieci | Technologia

10
0


Parlament Europejski zablokował rozszerzenie prawa, które pozwala dużym firmom technologicznym na wyszukiwanie na swoich platformach przypadków wykorzystywania seksualnego dzieci, tworząc lukę prawną, która zdaniem ekspertów ds. bezpieczeństwa dzieci doprowadzi do niewykrycia przestępstw.

Ustawa ta, będąca wycinkiem unijnej ustawy o prywatności, została wprowadzona w 2021 r. jako środek tymczasowy umożliwiający firmom korzystanie z technologii automatycznego wykrywania w celu skanowania wiadomości pod kątem szkód, w tym materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM), uwodzenia i przemocy seksualnej. Wygasło ono jednak 3 kwietnia, a parlament UE zdecydował się nie głosować za jego przedłużeniem ze względu na obawy niektórych prawodawców dotyczące prywatności.

Luka regulacyjna stworzyła niepewność dla dużych firm technologicznych, ponieważ chociaż skanowanie ich platform w poszukiwaniu szkód jest obecnie nielegalne, nadal są one zobowiązane do usuwania wszelkich nielegalnych treści hostowanych na ich platformach na mocy innego prawa, czyli ustawy o usługach cyfrowych. We wspólnym oświadczeniu opublikowanym na blogu Google Google, Meta, Snap i Microsoft oświadczyły, że będą nadal dobrowolnie skanować swoje platformy pod kątem CSAM.

„Jesteśmy rozczarowani tym nieodpowiedzialnym niepowodzeniem w osiągnięciu porozumienia w sprawie kontynuowania ustalonych wysiłków na rzecz ochrony dzieci w Internecie” – stwierdzono w oświadczeniu.

Parlament Europejski stwierdził w oświadczeniu, że priorytetowo traktuje prace nad ustawodawstwem mającym na celu zapobieganie niegodziwemu traktowaniu dzieci w celach seksualnych i zwalczanie go oraz że trwają negocjacje w sprawie stałych ram prawnych, chociaż organ nie przedstawił żadnego harmonogramu porozumień ani wdrożenia.

Zwolennicy ochrony dzieci ostrzegali, że wygaśnięcie ustawodawstwa prawdopodobnie spowoduje gwałtowny spadek liczby raportów o wykorzystywaniu seksualnym dzieci. Wskazują na podobną lukę prawną, która miała miejsce w 2021 r., kiedy liczba zgłoszeń takich materiałów z rachunków prowadzonych w UE do Krajowego Centrum ds. Dzieci Zaginionych i Wykorzystywanych (NCMEC) spadła o 58% w ciągu 18 tygodni.

„Kiedy narzędzia wykrywające ulegają zakłóceniom, tracimy widoczność, co bezpośrednio wpływa na naszą zdolność do znajdowania i ochrony ofiar wykorzystywania seksualnego dzieci” – powiedział John Shehan, wiceprezes NCMEC, amerykańskiej organizacji, która pełni rolę izby informacyjnej w zakresie zgłoszeń dotyczących wykorzystywania dzieci, które przekazuje odpowiednim organom ścigania na całym świecie. „Kiedy wykrywanie przestaje działać, molestowanie nie ustaje”.

W 2025 r. NCMEC otrzymało z całego świata 21,3 mln zgłoszeń obejmujących ponad 61,8 mln zdjęć, filmów i innych plików podejrzanych o związek z wykorzystywaniem dzieci. Około 90% tych raportów dotyczy krajów spoza USA.

Rzecznik parlamentu UE odmówił komentarza na temat tego, czy organ ustawodawczy przeprowadził jakiekolwiek oceny mające na celu określenie skutków naruszenia prawa.

Eksperci ds. bezpieczeństwa dzieci twierdzą, że decyzja UE o zakazie skanowania będzie miała daleko idące skutki w innych regionach świata. Wiele przestępstw internetowych ma charakter transgraniczny, a sprawcy wysyłają ludziom nielegalne zdjęcia lub obierają za cel dzieci w innych krajach. Shehan stwierdziła, że ​​„sekstorcjoniści”, którzy udają romantyczne zainteresowania, aby nakłonić ludzi do przesłania intymnych zdjęć przed podjęciem prób szantażu, również mogą skorzystać na zmianie prawa.

„Sprawca może znajdować się w dowolnym miejscu na świecie, ale mógłby mieć nieograniczony dostęp do nieletnich w Europie teraz, gdy istnieje niepewność prawna co do tych zabezpieczeń i zabezpieczeń umożliwiających identyfikację, kiedy dziecko jest pielęgnowane” – stwierdziła Shehan.

Lata napiętych negocjacji prowadzą do wygaśnięcia istotnego prawa dotyczącego wyodrębnienia przedsiębiorstw

Przez ostatnie cztery lata proponowane rozporządzenie dotyczące wykorzystywania seksualnego dzieci było przedmiotem negocjacji, ale pojawiły się spory, ponieważ zobowiązałoby firmy do podjęcia działań minimalizujących ryzyko na ich platformach, powiedziała Hannah Swirsky, dyrektor ds. polityki i spraw publicznych w Internet Watch Foundation, brytyjskiej organizacji non-profit zajmującej się bezpieczeństwem dzieci.

Zwolennicy prywatności argumentują, że duże technologie skanujące wiadomości pod kątem wykorzystywania dzieci zagrażają podstawowym prawom do prywatności i bezpieczeństwu danych obywateli UE, utożsamiając te środki z „kontrolą czatu”, która może prowadzić do masowej inwigilacji i fałszywych alarmów.

„Istnieją zarzuty dotyczące inwigilacji lub naruszenia prywatności” – powiedział Swirsky. „Blokowanie CSAM nie jest uchylaniem się od prywatności. Wolność słowa nie obejmuje wykorzystywania seksualnego dzieci. „

Technologia skanowania wykorzystuje uczenie maszynowe, które wykrywa wzorce w celu identyfikacji znanych obrazów lub filmów przedstawiających wykorzystywanie dzieci, a także języka powiązanego z wykorzystywaniem dzieci, i nie przechowuje żadnych danych, powiedziała Emily Slifer, dyrektor ds. polityki w Thorn, organizacji non-profit, która tworzy technologię do wykrywania wykorzystywania dzieci w Internecie, powszechnie stosowaną przez firmy i organy ścigania.

System działa w ten sposób, że przeszkoleni analitycy przeglądają znane CSAM uzyskane ze źródeł zewnętrznych, takich jak raporty policji, opinii publicznej lub dochodzenia dotyczące stron internetowych znanych z hostowania materiałów przedstawiających wykorzystywanie dzieci. Kiedy analitycy potwierdzają, że treść stanowi nielegalne wykorzystywanie seksualne dzieci, generują unikalny cyfrowy odcisk palca – znany jako wartość skrótu – który identyfikuje dokładnie ten obraz. Listy wartości skrótu są następnie udostępniane platformom, które wykorzystują zautomatyzowane systemy do skanowania przesyłanych plików i natychmiastowego blokowania pasujących treści, bez konieczności przeglądania ich przez człowieka.

„Technologia nie znajduje dzieci w wannie itp. Jeśli pomyślisz tylko o tym, jak wyglądałby obraz wykorzystywania w porównaniu z treściami udostępnianymi za obopólną zgodą, to są to dwa bardzo różne elementy materiału, a technologia może określić wzorce między nimi” – powiedziała Slifer.

UE zablokowała skanowanie pod kątem wykorzystywania dzieci, ale zgodnie z przepisami przyjętymi w 2021 r. umożliwiła firmom technologicznym dobrowolne skanowanie wiadomości w celu wykrycia treści o charakterze terrorystycznym.

„UE skutecznie ryzykuje otwarciem drzwi dla drapieżników” – powiedział Swirsky. „Jeśli UE poważnie podchodzi do ochrony dzieci w Internecie, musi uzgodnić stałe ramy prawne mające na celu ochronę dzieci i umożliwienie wykrywania”.