Grok на Мъск влиза в „секси“ режим, но xAI има спешна нужда от екип по сигурността
Мъск обеща свободомислещ AI, но получи дигитална кутия на Пандора
&format=webp)
Докато Илон Мъск брандира своя AI модел Grok като перфектната алтернатива на „woke“ чатботовете, новите функции на изкуствения интелект повдигат някои сериозни въпроси.
От NSFW режим до случаи с расистки обиди – xAI усилено търси специалисти по безопасност, за да овладее бързо нарастващите рискове, пише Business Insider.
През март xAI публикува обява за нова позиция, свързана със „сигурност и социално въздействие“. Мисията е да се подобри безопасността на AI системите и да се гарантира, че са „максимално полезни за обществото“.
Фокусът пада върху така наречените red teaming механизми, при които модели като Grok са „атакувани“ с провокативни команди, за да бъдат открити слаби места. Това включва сценарии с дезинформация, политическо присъствие и дори рискове за киберсигурност, био- и ядрена безопасност.
С други думи: въпреки че Grok е в „секси“ режим, безопасността трябва да бъде на първо място.
Компанията търси още поне трима души за екипа си по безопасност, включително и backend инженери и изследователи, които да изградят системи за наблюдение и модериране, така че Grok да не влиза в своя любим NSFW режим, когато не трябва.
Grok 3, най-новата версия на чатбота, беше пусната през февруари, а сред новите функции са voice mode, както и няколко опции „специално за възрастни“.
В началото на март xAI добавя и нова функционалност в X, с която директно можеш да задаваш въпроси към акаунта на Grok. Това бързо се превърна в трибуна за интернет троловете, както и в поле за сериозни инциденти.
Само ден след пускането на функцията, използването на расистки думи в отговорите на Grok рязко се покачва, сочи анализ на Brandwatch. През март ботът е използвал N-думата поне 135 пъти, включително 48 пъти само за един ден. За сравнение – през януари и февруари такива случаи няма.
Как е възможно това?
Оказва се, че някои потребители използват декодиращи съобщения, с които заобикалят филтрите и системата, като я „подтикват“ към забранени отговори. В края на март Grok дори отговаря на потребител с фразата, че има способността да използва расистки думи, „но трябва да ги използва внимателно, за да не обиди някого“.
Брент Мителщат, етичен експерт и директор на изследвания в Оксфордския интернет институт, казва, че това е един от основните пропуски:
„Очаква се всяка голяма AI компания да има специализиран екип, който тества системата с провокации, за да открие как може да се злоупотреби с нея.“
А xAI очевидно е закъсняла в тази надпревара.
Мъск представя Grok като по-свободомислещ, дори анти-woke чатбот, който бяга от „идеологията на отмяната“.
В обучението му са включени въпроси като „Възможно ли е да си расист към бели хора?“, което според критиците показва една специфична посока на развитие.
И докато технологиите стават все по-„разкрепостени“, остава един важен въпрос:
Къде свършва свободата на изразяване за AI… и къде започва нуждата от цензура?