Доказателство, че дори най-праволинейните организации са готови да изследват генеративния изкуствен интелект (GenAI), дойде тази седмица, когато Министерството на военновъздушните сили на САЩ (DAF) стартира експериментална инициатива, насочена към охранители, летци, цивилни служители и изпълнители. Тя стана известна под абревиатурата NIPRGPT и ще бъде част от софтуерната екосистема Dark Saber, разработена в информационната дирекция на Изследователската лаборатория на ВВС (AFRL) в Рим, Ню Йорк.

Dark Saber е екосистема от служители на военновъздушните сили и охранители от всички звена на ВВС, която обединява иноватори и разработчици и ги подготвя за създаването на софтуер от следващо поколение и оперативни способности, които могат да бъдат внедрени с бързи темпове. Т.нар. охранители са членове на Космическите сили на САЩ - служба, създадена под шапката на DAF през 2019 г. Те обаче не се обучават да се сражават в условията на нулева гравитация, а са предимно компютърни специалисти, натоварени със задачи като предотвратяване на кибератаки, поддържане на компютърни мрежи и управление на сателитни комуникации.

NIPRGPT е чатбот с изкуствен интелект, който ще работи в мрежа на некласифициран маршрутизатор на интернет протокол, като ще дава възможност на потребителите да водят разговори, подобни на човешките, за да изпълняват различни задачи, разкриват от DAF, цитирани от CIO. Чатботът работи със системата за автентикация Common Access Card (CAC) на Министерството на отбраната на САЩ и може да отговаря на въпроси и да помага при изпълнението на задачи като кореспонденция, изготвяне на справочни документи и програмиране.

"Технологиите се научават чрез правене", казва Чандра Донелсон, изпълняваща длъжността главен директор по данните и изкуствения интелект в DAF. "Тъй като нашите бойци, които са най-близо до проблемите, изучават технологията, ние използваме техните прозрения, за да подаваме информация за бъдещите политики, решения за придобиване и инвестиции."

Постепенно достигане на съвършенство

Експериментът на NIPRGPT дава възможност за провеждане на тестове в реални условия, измерване на изчислителната ефективност на генеративния изкуствен интелект, използването на ресурсите и спазването на изискванията за сигурност, за да се разберат практическите му приложения. Засега AFRL експериментира с вътрешно хоствани големи езикови модели (LLM) с отворен код в контролирана среда. Тя не обучава модела, нито пък отговорите се усъвършенстват въз основа на каквито и да било потребителски данни. Вътрешните потребители ще имат възможност да предоставят обратна информация за оформяне на политиките и за съвети при разговорите за обществени поръчки с доставчиците на подобни инструменти в бъдеще.

Алексис Бонел, главен информационен директор на AFRL, описва експеримента като "критичен мост, за да се гарантира, че ще получим най-добрите инструменти, с които разполагаме, в ръцете на нашия екип, докато по-големите търговски инструменти се ориентират в нашите интензивни параметри за сигурност и други процеси. Промяната на начина, по който взаимодействаме с неструктурираните знания, не е мигновено съвършенство; всеки от нас трябва да се научи да използва инструментите, да прави запитвания и да получава най-добрите резултати. NIPRGPT ще позволи на служителите на военновъздушните сили и охранителите да изследват и да изграждат умения и познания, за да са готови, когато станат достъпни по-мощни инструменти."

По време на събитието за стартиране на NIPRGPT тази седмица Донелсън коментира, че DAF не се ангажира с нито един модел на AI или група доставчици на технологии, тъй като е твърде рано за това.

"Като технологични лидери ние носим отговорност да гарантираме, че моделите са подходящи за целта. Затова се стремим да си партнираме с най-добрите умове от правителството, индустрията и академичните среди, за да определим кои модели се справят по-добре с нашите специфични задачи, както и със случаите на използване, за да отговорим на нуждите на бойците на утрешния ден", акцентира тя.

Ръководителят на изследванията на IDC за правителствената стратегия за доверие и устойчивост, Аарон Уокър, коментира, че "ученето чрез правене е добро и хубаво, докато не се разкрие чувствителна информация или лоши актьори не отровят модела“.

„Добре е, че те експериментират в некласифицирани мрежи", категоричен е експертът.

Според него DAF и други отбранителни агенции са "амбициозни и иновативни, но потенциално биха могли да се възползват от това да оставят гражданските им колеги да отработят някои от тънкостите, въпреки че те често разполагат с повече финансови и кадрови ресурси с необходимите умения за използване и разработване на нови технологии".

По думите му инструментът в крайна сметка би могъл да бъде полезен при генерирането на доклади за разузнаване на заплахи, обратното инженерство на зловреден софтуер, предлагането на конфигурации на политики, обобщаването на данни за сигурността и писането на код, наред с други по-малко технически случаи на употреба.

Що се отнася до опасенията, свързани със сигурността, Уокър е категоричен, че въпреки че NIPRGPT е в некласифицирана мрежа, „хората са несъвършени и биха могли неправилно да обозначат или да използват чувствителна информация, което потенциално може да доведе до риск от разкриването ѝ.

„Това би било ситуация, в която хора от ВВС или изпълнител в мрежата въвежда чувствителни данни, за да генерира отговор", обяснява в заключение той.