Докато Илон Мъск брандира своя AI модел Grok като перфектната алтернатива на „woke“ чатботовете, новите функции на изкуствения интелект повдигат някои сериозни въпроси.

От NSFW режим до случаи с расистки обиди – xAI усилено търси специалисти по безопасност, за да овладее бързо нарастващите рискове, пише Business Insider.

През март xAI публикува обява за нова позиция, свързана със „сигурност и социално въздействие“. Мисията е да се подобри безопасността на AI системите и да се гарантира, че са „максимално полезни за обществото“.

Фокусът пада върху така наречените red teaming механизми, при които модели като Grok са „атакувани“ с провокативни команди, за да бъдат открити слаби места. Това включва сценарии с дезинформация, политическо присъствие и дори рискове за киберсигурност, био- и ядрена безопасност.

С други думи: въпреки че Grok е в „секси“ режим, безопасността трябва да бъде на първо място.

Компанията търси още поне трима души за екипа си по безопасност, включително и backend инженери и изследователи, които да изградят системи за наблюдение и модериране, така че Grok да не влиза в своя любим NSFW режим, когато не трябва.

Grok 3, най-новата версия на чатбота, беше пусната през февруари, а сред новите функции са voice mode, както и няколко опции „специално за възрастни“.

В началото на март xAI добавя и нова функционалност в X, с която директно можеш да задаваш въпроси към акаунта на Grok. Това бързо се превърна в трибуна за интернет троловете, както и в поле за сериозни инциденти.

Само ден след пускането на функцията, използването на расистки думи в отговорите на Grok рязко се покачва, сочи анализ на Brandwatch. През март ботът е използвал N-думата поне 135 пъти, включително 48 пъти само за един ден. За сравнение – през януари и февруари такива случаи няма.

Как е възможно това?

Оказва се, че някои потребители използват декодиращи съобщения, с които заобикалят филтрите и системата, като я „подтикват“ към забранени отговори. В края на март Grok дори отговаря на потребител с фразата, че има способността да използва расистки думи, „но трябва да ги използва внимателно, за да не обиди някого“.

Брент Мителщат, етичен експерт и директор на изследвания в Оксфордския интернет институт, казва, че това е един от основните пропуски:

„Очаква се всяка голяма AI компания да има специализиран екип, който тества системата с провокации, за да открие как може да се злоупотреби с нея.“

А xAI очевидно е закъсняла в тази надпревара.

Мъск представя Grok като по-свободомислещ, дори анти-woke чатбот, който бяга от „идеологията на отмяната“.

В обучението му са включени въпроси като „Възможно ли е да си расист към бели хора?“, което според критиците показва една специфична посока на развитие.

И докато технологиите стават все по-„разкрепостени“, остава един важен въпрос:

Къде свършва свободата на изразяване за AI… и къде започва нуждата от цензура?