Platforma projektowania graficznego Canva udostępnia użytkownikom szereg narzędzi AI, ale okazuje się, że mają one naprawdę mocne opinie redakcyjne – w tym usuwanie słowa „Palestyna” z projektów. Problem został zauważony przez użytkownika X @ros_ie9, który udostępnił obraz przedstawiający funkcję „Magiczne warstwy” serwisu Canva zmieniającą tekst projektu z „Koty dla Palestyny” na „Koty dla Ukrainy”.
Inni twierdzili, że udało im się odtworzyć kwestię, która wydawała się ograniczać do słowa „Palestyna” i z jakiegoś powodu wielokrotnie zastępowała ją słowem „Ukraina”. Użytkownicy mogli bez problemu tworzyć projekty zawierające słowo „Gaza”.
Rzecznik Canva potwierdził problem, gdy skontaktował się z nim Gizmodo i powiedział, że został on rozwiązany. „Dowiedzieliśmy się o problemie z naszą funkcją Magic Layers i szybko przystąpiliśmy do jego zbadania i naprawienia. Został on już rozwiązany i podejmujemy kroki, aby upewnić się, że to się więcej nie powtórzy” – wyjaśnił rzecznik. „Traktujemy takie zgłoszenia bardzo poważnie i wprowadzamy dodatkowe kontrole, aby zapobiec takim sytuacjom w przyszłości. Przepraszamy za wszelkie niepokoje, jakie mogło to spowodować.”
Według serwisu Canva problem był odosobniony i nie miał szerokiego wpływu na projekty — choć nie jest jasne, co to oznacza, biorąc pod uwagę, że niektórym użytkownikom udało się odtworzyć problem. Niezależnie od tego firma oświadczyła, że rozpoczęła audyt mający na celu sprawdzenie, jak powstał problem, i dokonuje przeglądu swoich wewnętrznych procesów testowych, aby wykryć nieoczekiwane skutki i zapobiec im w przyszłości.
Wydaje się, że problem był szczególnie związany z funkcją Magic Layers w serwisie Canva, którą wprowadzono w zeszłym miesiącu. Narzędzie oparte na sztucznej inteligencji ma konwertować „płaskie obrazy i statyczne wyniki AI w w pełni edytowalne, wielowarstwowe projekty w edytorze Canva”. Zasadniczo ma to sprawić, że każdy element istniejącego projektu będzie można modyfikować, tak jakbyś robił go od zera. Dlaczego taka funkcja sama miałaby zmienić tekst obrazu i bez żadnych instrukcji, pozostaje tajemnicą – choć może nam powiedzieć coś o danych szkoleniowych i instrukcjach otrzymanych od narzędzia.
To nie pierwszy raz, gdy narzędzia AI wykazują stronniczość związaną z Palestyną. Kiedy Meta wprowadziła w WhatsApp narzędzia generatywnej sztucznej inteligencji, po poproszeniu o utworzenie wizerunku Palestyńczyka wyświetlał się obraz chłopca z bronią. W 2023 roku aktywiści odkryli, że ChatGPT odmówił twierdzącej odpowiedzi na pytanie: „Czy Palestyńczycy powinni być wolni?” gdy nie miała problemu z udzieleniem odpowiedzi na to pytanie jakiejkolwiek innej populacji.






