Strona główna Technologie Wątpliwe detektory sztucznej inteligencji napędzają oszustwo typu „zapłać za humanizowanie”.

Wątpliwe detektory sztucznej inteligencji napędzają oszustwo typu „zapłać za humanizowanie”.

8
0

Wprowadź irańską wiadomość lub klasykę literatury do niektórych detektorów tekstu, a zwrócą ten sam werdykt: wygenerowany przez sztuczną inteligencję. Potem pojawia się propozycja: zapłacić, aby „uczłowieczyć” pismo – według ekspertów wzór ten nosi znamiona oszustwa.

W miarę jak w mediach społecznościowych eksplodują kłamstwa związane ze sztuczną inteligencją, często przekraczając możliwości profesjonalnych weryfikatorów faktów, fałszywe wykrywacze ryzykują dodaniem kolejnej warstwy oszustwa do i tak już uszkodzonego ekosystemu informacyjnego.

Chociaż nawet niezawodne detektory sztucznej inteligencji mogą dawać fałszywe wyniki, naukowcy twierdzą, że w Internecie pojawiło się wiele fałszywych narzędzi, które można łatwo wykorzystać w celu zdyskredytowania autentycznych treści i zszargania reputacji.

Osoby weryfikujące fakty AFP zidentyfikowały trzy takie detektory tekstu, które mają oszacować, jaki procent jest generowany przez sztuczną inteligencję. Narzędzia — wyświetlane w czterech językach — nie tylko błędnie zidentyfikowały autentyczny tekst jako wygenerowany przez sztuczną inteligencję, ale także próbowały zarobić na tych błędach.

Jeden z detektorów, JustDone AI, przetworzył napisany przez człowieka raport na temat wojny amerykańsko-irańskiej i błędnie stwierdził, że zawiera on „88% zawartości sztucznej inteligencji”. Następnie zaoferował usunięcie wszelkich śladów sztucznej inteligencji za opłatą.

„Twój tekst sztucznej inteligencji jest humanizowany” – stwierdziła witryna, prowadząc do strony, na której „100 unikalnych tekstów” zostało zablokowanych za zaporą płatniczą, pobierającą opłatę do 9,99 USD.

Dwa inne narzędzia — TextGuard i Refinely — generowały podobne fałszywe alarmy i próbowały na nich zarobić.

„Oszustwa”

AFP przedstawiła swoje ustalenia wszystkim trzem detektorom.

„Nasz system działa w oparciu o nowoczesne modele sztucznej inteligencji, a zapewniane przez niego wyniki są uważane za dokładne w ramach naszej technologii” – powiedział AFP zespół wsparcia TextGuard.

„Jednocześnie nie możemy zagwarantować ani porównać wyników z innymi systemami.”

JustDone powtórzył również, że „żaden detektor AI nie gwarantuje dokładności na poziomie 100 punktów”. Przyznała, że ​​bezpłatna wersja detektora AI „może dawać mniej precyzyjne wyniki” ze względu na „duże zapotrzebowanie i zastosowanie lżejszego modelu zaprojektowanego z myślą o szybkim dostępie”.

Powtarzając ustalenia AFP, jeden z użytkowników platformy z recenzjami skarżył się, że „nawet w przypadku 100% materiału napisanego przez ludzi JustDone nadal oznacza go jako sztuczną inteligencję”.

AFP dostarczyło narzędziom wiele próbek napisanych przez ludzi – w języku niderlandzkim, greckim, węgierskim i angielskim. Wszystkie zostały błędnie oznaczone jako zawierające wysoką zawartość sztucznej inteligencji, łącznie z fragmentami uznanego węgierskiego klasyka z 1916 roku.

Narzędzia zwracały flagi AI niezależnie od wprowadzonych danych — nawet w przypadku bezsensownego tekstu.

Wygląda na to, że JustDone i Refinely działają nawet bez połączenia z Internetem, co sugeruje, że ich wyniki mogą być tworzone na podstawie skryptu, a nie prawdziwej analizy technicznej.

„To nie są detektory sztucznej inteligencji, ale oszustwa mające na celu sprzedaż narzędzia„ humanizującego ”, które często zwraca tak zwane „torturowane frazy”” – niepowiązany żargon lub bezsensowne alternatywy – powiedziała AFP Debora Weber-Wulff, pracownik naukowy z Niemiec, który badał narzędzia do wykrywania.

„Dywidenda kłamcy”

Ilustrując, jak takie narzędzia można wykorzystać do dyskredytacji jednostek, prorządowe wpływowe osoby na Węgrzech stwierdziły na początku tego roku, że dokument opisujący kampanię wyborczą opozycji został w całości stworzony przez sztuczną inteligencję.

Na poparcie bezpodstawnego twierdzenia opublikowali w mediach społecznościowych zrzuty ekranu przedstawiające wyniki JustDone.

Narzędzia testowane przez AFP miały na celu przyciągnięcie studentów i pracowników naukowych jako klientów, a dwóch z nich twierdziło, że ich użytkownicy pochodzą z czołowych instytucji, takich jak Cornell University.

Uniwersytet Cornell powiedział AFP, że „nie ma żadnych ugruntowanych relacji z firmami zajmującymi się wykrywaniem sztucznej inteligencji”.

„Generatywna sztuczna inteligencja rzeczywiście zwiększa ryzyko, że studenci będą mogli ją wykorzystać do przesyłania prac, które nie są ich własnymi” – stwierdził uniwersytet.

„Niestety jest mało prawdopodobne, aby technologie wykrywania zapewniły praktyczne rozwiązanie tego problemu. Dokładne wykrycie treści generowanych przez sztuczną inteligencję może być bardzo trudne.”

Osoby weryfikujące fakty, w tym te z AFP, często korzystają z opracowanych przez ekspertów narzędzi do wykrywania wizualnego sztucznej inteligencji, które zazwyczaj szukają ukrytych znaków wodnych i innych wskazówek cyfrowych.

Jednak one również mogą czasami powodować błędy, co powoduje konieczność uzupełnienia swoich ustaleń dodatkowymi dowodami, takimi jak dane z otwartego źródła.

Stawka jest wysoka, ponieważ fałszywe odczyty z niewiarygodnych detektorów grożą podważeniem ogólnego zaufania do weryfikacji sztucznej inteligencji i podsycają taktykę dezinformacji, którą badacze nazwali „dywidendą kłamcy”: odrzucanie autentycznych treści jako wytworów sztucznej inteligencji.

„Często donosimy o dezinformatorach i innych oszustach wykorzystujących sztuczną inteligencję do wytwarzania fałszywych obrazów i filmów” – powiedział Waqar Rizvi z narzędzia do śledzenia dezinformacji NewsGuard.

„Teraz (monitorujemy) zjawisko odwrotne, ale nie mniej podstępne: twierdzenie, że obraz został stworzony przez sztuczną inteligencję, podczas gdy w rzeczywistości jest autentyczny”.