Служители в Пентагона и IT изпълнители, работещи в тясно сътрудничество с американската армия, не са склонни да се откажат от AI инструментите на Anthropic, предава Reuters. Според тях моделът на компанията превъзхожда алтернативите.

След спор между Anthropic и Пентагона относно ограниченията върху начина, по който военните могат да използват нейните AI системи, министърът на отбраната Пийт Хегсет определи компанията като риск за веригата на доставки на 3 март.

Това решение забранява използването на нейните продукти от Пентагона и неговите подизпълнители, като е предвиден шестмесечен период за поетапно изтегляне.

Мярката обаче среща съпротива. Част от военните потребители отлагат изпълнението ѝ, а други се надяват, че спорът ще бъде решен.

„Хората от IT системите в Министерството на отбраната мразят това решение, защото най-сетне бяха накарали оперативните екипи да свикнат да работят с AI. Смятат го за глупаво“, казва един от изпълнителите пред Reuters.

По думите му моделът Claude на Anthropic „е най-добрият“, докато Grok на xAI често дава непоследователни отговори на една и съща заявка.

Промяната може да отнеме месеци

Оплакванията подсказват, че премахването на Anthropic от мрежите на Пентагона няма да бъде нито бързо, нито безболезнено. Източник на Reuters отбелязва, че повторната сертификация на системи, базирани на продуктите на компанията, може да отнеме месеци.

Някои от източниците, служители и подизпълнители, говорят анонимно, тъй като нямат право да коментират публично.

AI инструментите вече са ключова част от дейността на американската армия – от насочване на оръжия и планиране на операции до обработка на класифицирана информация и анализ на данни.

През юли 2025 г. Anthropic обяви договор с Пентагона на стойност 200 млн. долара и бързо се интегрира в работните процеси на армията. Claude се превърна в първия AI модел, одобрен за работа в класифицирани военни мрежи. В рамките на федералното правителство моделите на компанията се възприемат като по-способни от конкурентните решения.

Reuters вече съобщи, че Пентагонът е използвал Claude в подкрепа на военните операции на САЩ по време на конфликта с Иран, като източници твърдят, че технологията продължава да се използва въпреки забраната.

Един експерт определя това като „най-ясния сигнал“ колко високо се оценява инструментът.

Освен това подмяната му не е евтина.

„Смяната на тези модели с алтернативи е свързана със значителни разходи“, казва Джо Сондърс, главен изпълнителен директор на правителствения подизпълнител RunSafe Security. По думите му новите системи ще трябва да преминат през дълъг процес на сертификация за работа в класифицирани и военни среди.

При замяна на съществуваща система с нова, сертификацията може да отнеме между 12 и 18 месеца.

„Това не е само въпрос на разходи, а и на загуба на производителност“, допълва Сондърс, който е участвал във внедряването на AI чатботи в армията.

Задачи, които досега са се изпълнявали от Claude – например търсене на информация в големи масиви от данни – в някои случаи вече се правят ръчно чрез инструменти като Microsoft Excel.

Труден преход

Премахването на Claude ще бъде сериозно предизвикателство.

Например платформата Maven Smart Systems на Palantir – използвана за анализ на разузнавателна информация и насочване на оръжия – разчита на множество процеси и работни потоци, изградени върху Claude Code. Palantir, която има договори с Министерството на отбраната и други агенции за национална сигурност на стойност над 1 млрд. долара, ще трябва да замени Claude с друг AI модел и да преработи части от софтуера си.

Министерството на отбраната е разпоредило на подизпълнителите, включително големи отбранителни компании, да оценят зависимостта си от продуктите на Anthropic и да започнат тяхното постепенно изтегляне. Пред тях стои стратегически избор – дали бързо да преминат към OpenAI, Google или xAI, или да ограничат използването на Anthropic по начин, който позволява бързо връщане, ако забраната бъде отменена.