Strona główna Technologie Antropiczna sztuczna inteligencja stanowi „niedopuszczalne ryzyko” dla wojska, twierdzi rząd USA –...

Antropiczna sztuczna inteligencja stanowi „niedopuszczalne ryzyko” dla wojska, twierdzi rząd USA – Świat

4
0

Firma Anthropic zajmująca się sztuczną inteligencją stwarza „niedopuszczalne ryzyko” dla wojskowych łańcuchów dostaw – upierał się we wtorek rząd USA, broniąc się przed kwestionowaniem przez tę firmę technologiczną uznania jej za niebezpieczną.

Model sztucznej inteligencji Claude firmy Anthropic znalazł się w ostatnich tygodniach w centrum uwagi zarówno ze względu na jego rzekome wykorzystanie do identyfikacji celów amerykańskich bombardowań w Iranie, jak i odmowę firmy dotyczącą wykorzystania jej systemów do zasilania masowej inwigilacji w Stanach Zjednoczonych lub śmiercionośnych, w pełni autonomicznych systemów uzbrojenia.

Uzasadniając swoją decyzję o zerwaniu powiązań z Anthropic w odpowiedzi na skargę prawną ze strony firmy, Pentagon – nazwany przez administrację Trumpa Departamentem Wojny (DoW) – wyraził „zaniepokojenie, że umożliwienie Anthropic stałego dostępu do technicznej i operacyjnej infrastruktury bojowej DoW wprowadziłoby niedopuszczalne ryzyko do łańcuchów dostaw DoW” – jak wynika z dokumentu sądowego, do którego dotarła AFP.

„Systemy sztucznej inteligencji są wyjątkowo podatne na manipulację” – dodał rząd w pozwie złożonym przed kalifornijskim sądem federalnym.

„Anthropic może podjąć próbę wyłączenia swojej technologii lub zapobiegawczo zmienić zachowanie swojego modelu przed lub w trakcie trwających działań wojennych, jeśli Anthropic – według własnego uznania – uzna, że ​​jej korporacyjne „czerwone linie” zostały przekroczone” – stwierdził.

Odmowa Anthropic wyrażenia zgody na wykorzystanie jej technologii sztucznej inteligencji przez wojsko do „jakichkolwiek zgodnych z prawem celów” stanowi zatem „niedopuszczalne ryzyko dla bezpieczeństwa narodowego” – czytamy w dokumencie.

„Ujmując rzecz bardziej ogólnie, zachowanie Anthropic spowodowało, że Departament zaczął kwestionować, czy Anthropic reprezentuje zaufanego partnera” – stwierdził rząd.

Klasyfikacja jako „ryzyko łańcucha dostaw”, którą Anthropic zakwestionowała w sprawie przeciwko Pentagonowi i innym organom rządu federalnego, teoretycznie oznacza, że ​​wszyscy dostawcy rządowi mieliby zakaz prowadzenia interesów z firmą.

Oznaczenie to jest zwykle zarezerwowane dla organizacji z obcych krajów, takich jak chiński gigant technologiczny Huawei.

Inne duże amerykańskie firmy technologiczne, takie jak Microsoft, który sam korzysta z modelu Claude firmy Anthropic i zaopatruje amerykańską armię, opowiedziały się po stronie firmy zajmującej się sztuczną inteligencją.

„To nie czas, aby narażać ekosystem sztucznej inteligencji, w tworzeniu którego administracja pomogła” – stwierdził Microsoft w zeszłotygodniowej opinii złożonej przed sądem.