Firma Anthropic zajmująca się sztuczną inteligencją stwarza „niedopuszczalne ryzyko” dla wojskowych łańcuchów dostaw – upierał się we wtorek rząd USA, broniąc się przed kwestionowaniem przez tę firmę technologiczną uznania jej za niebezpieczną.
Model sztucznej inteligencji Claude firmy Anthropic znalazł się w ostatnich tygodniach w centrum uwagi zarówno ze względu na jego rzekome wykorzystanie do identyfikacji celów amerykańskich bombardowań w Iranie, jak i odmowę firmy dotyczącą wykorzystania jej systemów do zasilania masowej inwigilacji w Stanach Zjednoczonych lub śmiercionośnych, w pełni autonomicznych systemów uzbrojenia.
Uzasadniając swoją decyzję o zerwaniu powiązań z Anthropic w odpowiedzi na skargę prawną ze strony firmy, Pentagon – nazwany przez administrację Trumpa Departamentem Wojny (DoW) – wyraził „zaniepokojenie, że umożliwienie Anthropic stałego dostępu do technicznej i operacyjnej infrastruktury bojowej DoW wprowadziłoby niedopuszczalne ryzyko do łańcuchów dostaw DoW” – jak wynika z dokumentu sądowego, do którego dotarła AFP.
„Systemy sztucznej inteligencji są wyjątkowo podatne na manipulację” – dodał rząd w pozwie złożonym przed kalifornijskim sądem federalnym.
„Anthropic może podjąć próbę wyłączenia swojej technologii lub zapobiegawczo zmienić zachowanie swojego modelu przed lub w trakcie trwających działań wojennych, jeśli Anthropic – według własnego uznania – uzna, że jej korporacyjne „czerwone linie” zostały przekroczone” – stwierdził.
Odmowa Anthropic wyrażenia zgody na wykorzystanie jej technologii sztucznej inteligencji przez wojsko do „jakichkolwiek zgodnych z prawem celów” stanowi zatem „niedopuszczalne ryzyko dla bezpieczeństwa narodowego” – czytamy w dokumencie.
„Ujmując rzecz bardziej ogólnie, zachowanie Anthropic spowodowało, że Departament zaczął kwestionować, czy Anthropic reprezentuje zaufanego partnera” – stwierdził rząd.
Klasyfikacja jako „ryzyko łańcucha dostaw”, którą Anthropic zakwestionowała w sprawie przeciwko Pentagonowi i innym organom rządu federalnego, teoretycznie oznacza, że wszyscy dostawcy rządowi mieliby zakaz prowadzenia interesów z firmą.
Oznaczenie to jest zwykle zarezerwowane dla organizacji z obcych krajów, takich jak chiński gigant technologiczny Huawei.
Inne duże amerykańskie firmy technologiczne, takie jak Microsoft, który sam korzysta z modelu Claude firmy Anthropic i zaopatruje amerykańską armię, opowiedziały się po stronie firmy zajmującej się sztuczną inteligencją.
„To nie czas, aby narażać ekosystem sztucznej inteligencji, w tworzeniu którego administracja pomogła” – stwierdził Microsoft w zeszłotygodniowej opinii złożonej przed sądem.







