Anthropic няма финансов проблем, но започва да има политически.

Компанията стои зад Claude - единственият голям езиков модел, който може да се използва в класифицирана среда. Това е статут, даден от Министерството на отбраната на САЩ и носещ конкурентно предимство.

През 2024 г. Anthropic сключи партньорство с компанията за данни Palantir, а миналото лято спечели военен договор на стойност до 200 млн. долара. Напоследък обаче компанията се оказва под прицела на Пентагона - конфликт, който може да предизвика сътресения в отбранителния сектор на САЩ.

Пентагонът иска да може да използва Anthropic и други AI инструменти за всички законни цели. Anthropic от своя страна не желае технологията ѝ да се използва за дейности като вътрешно наблюдение и автономни смъртоносни операции.

Конкуренти като OpenAI, Google и xAI по принцип са се съгласили моделите им да се използват за всякакви законни приложения - приоритет за Пентагона, казва пред The Wall Street Journal Емил Майкъл, заместник-министър на отбраната по изследванията и инженерството.

„Трябва да можем да използваме всеки модел за всички законни цели. Ако дадена компания не иска да се съобрази с това, това е проблем за нас“, посочва Майкъл.

Anthropic и Пентагонът от седмици водят спор за договорните условия за използване на технологията. Claude е бил използван при януарската операция по залавянето на бившия венецуелски президент Николас Мадуро.

Противоречията вече стават публични. Пентагонът под ръководството на министъра на отбраната Пийт Хегсет, който възприема „woke“ технологичните компании като уязвимост и вижда ограниченията като спирачка за военната ефективност, преразглежда партньорството си с Anthropic.

„Страната ни има нужда от партньори, готови да помогнат на военните ни да печелят всяка битка. В крайна сметка става дума за сигурността на военнослужещите и на американските граждани“, коментира говорителят на Пентагона Шон Парнел.

Anthropic отговаря, че служителите са ангажирани с използването на водещ AI в подкрепа на националната сигурност. Компанията посочва, че първа е внедрила гранични AI модели в класифицирани мрежи и е предоставила персонализирани решения за клиенти от сектора на сигурността. С Пентагона се водят „добросъвестни и продуктивни разговори“ за продължаване на сътрудничеството.

Стартъпът се позиционира различно от OpenAI - компанията, от която основателите му напускат през 2020 г. - като залага на корпоративния пазар. А там няма по-голям клиент от правителството на САЩ, като именно Министерството на отбраната е ключов източник на доходоносни договори.

Anthropic рано си партнира с Palantir и става първият LLM с достъп до класифицирана информация. Компанията активно подчертава работата си по националната сигурност, включително чрез консултативен съвет с бивши сенатори и експерти и чрез публични представяния на проектите си с правителството.

OpenAI все още преминава процедура по сертифициране за класифицирана информация.

Фокусът на Anthropic върху безопасността на AI, както и възприеманите ѝ политически връзки, дразнят администрацията на Тръмп.

Главният изпълнителен директор Дарио Амодей сравнява Тръмп с „феодален военачалник“ в публикация във Facebook в подкрепа на Камала Харис преди изборите през 2024 г.

В Давос през януари той критикува политиката на администрацията за износа на чипове.

Президентът на компанията Даниела Амодей коментира в LinkedIn случая с ICE в Минеаполис, заявявайки, че „това не е онова, зад което стои Америка“, като същевременно подкрепя призивите за разследване.

Anthropic е привлякла и бивши представители на администрацията на Байдън, включително съветника по AI Бен Бюканън и експерта по технологии от Съвета за национална сигурност Тарун Чхабра.

Компанията е обект на критики от Дейвид Сакс и други представители на администрацията, които се обявяват срещу т.нар. „woke AI“. Амодей отрича стартъпът да има политически мотиви.

Напрежението се изостря след спечелването на военния договор миналото лято.

Стратегически меморандум от 9 януари подчертава, че Пентагонът трябва да използва модели без ограничения, които биха възпрепятствали законни военни приложения.

Според служители в отбраната Хегсет използва случая, за да изпрати сигнал към индустрията.

Експерти предупреждават, че обявяването на Anthropic за риск във веригата на доставки би отслабило военните AI способности и би създало опасен прецедент.

Наблюдатели отбелязват и колко се е променило отношението на технологичния сектор към Пентагона спрямо времето, когато хиляди служители на Google протестираха срещу военни договори.