„Безразсъдна“ и „безотговорна“: Експерти по сигурността скочиха срещу xAI на Илон Мъск
Според споециалисти от OpenAI, Anthropic и други организации AI стартъпът на милиардера не покрива елементарните изисквания за сигурност на своите модели

Изследователи от OpenAI, Anthropic и други организации обвиняват публично xAI, стартъпът за изкуствен интелект на Илон Мъск, в „безразсъдна“ и „напълно безотговорна“ култура на безопасност при разработката на технологията. Критиката следва седмици на скандали в xAI, които засенчиха технологичните постижения на компанията.
Миналата седмица чатботът Grok направи антисемитски коментари, като многократно се определи за MechaHitler. Скоро след като xAI извади чатбота си от мрежата, за да разреши проблема.
Освен това TechCrunch и други специализирани медии разкриха, че Grok 4 се консултира с личните политически възгледи на Илон Мъск, за да отговори на актуални въпроси. Не на последно място, xAI пусна AI аватари, които имат формата на хиперсексуализирано аниме момиче и прекалено агресивна панда.
По принцип прехвърчането на искри между конкурентни AI лаборатории е нещо нормално, но в случая изследователите призовават за по-голямо внимание към практиките за безопасност на xAI, които според тях са в противоречие с нормите в индустрията.
„Не исках да критикувам Grok, тъй като работя за конкурент, но тук не става въпрос за конкуренция“, казва Боаз Барак, професор по компютърни науки в Harvard, който прави изследвания в областта на безопасността в OpenAI, в публикация в X. „Уважавам учените и инженерите на xAI, но начинът, по който се подхожда към безопасността, е напълно безотговорен“.
Той е особено несъгласен с решението на xAI да не публикува системни карти – стандартни за индустрията доклади, които подробно описват методите на обучение и оценките за безопасност. В резултат на това, според Барак, не е ясно какво обучение по безопасност е било проведено за Grok 4.
OpenAI и Google също имат спорна репутация, когато става въпрос за своевременно споделяне на системни карти при представянето на нови AI модели. OpenAI реши да не публикува системна карта за GPT-4.1, твърдейки, че това не е авангарден модел. Междувременно Google изчака месеци след представянето на Gemini 2.5 Pro, за да публикува доклад за безопасността. Въпреки това тези компании традиционно публикуват доклади за безопасността на всички нови модели, преди да станат широко достъпни.
Барак също така отбелязва, че AI аватарите на Grok „вземат най-лошите проблеми, които имаме в момента, свързани с емоционалната зависимост, и се опитват да ги усилят“.
„През последните години сме видели безброй истории за нестабилни хора, които развиват тревожни взаимоотношения с чатботове, и как прекалено любезните отговори на AI могат да ги докарат до ръба на лудостта“, акцентира той.
Самуел Маркс, изследовател в областта на безопасността на изкуствения интелект в Anthropic, също изразява несъгласие с решението на xAI да не публикува доклад за безопасността, наричайки този ход „безразсъден“.
„Практиките на Anthropic, OpenAI и Google по отношение на пускането на продукти на пазара имат проблеми“, пише той в X. „Но те поне правят нещо, каквото и да е, за да оценят безопасността преди пускането на пазара и да документират резултатите. xAI не прави това“.
В широко споделена публикация в онлайн форума LessWrong анонимен изследовател твърди, че Grok 4 няма значими мерки за безопасност. Независимо дали това е вярно или не, светът изглежда открива недостатъците на чатбота в реално време. Няколко от проблемите с безопасността на xAI оттогава станаха обект на сериозна дискусия, а компанията твърди, че ги е разрешила с промени в системните подсказки на Grok.
Дан Хендрикс, съветник по безопасността в xAI и директор на Центъра за безопасност на изкуствения интелект, публикува в X, че компанията е направила „оценки на опасните възможности“ на Grok 4. Резултатите от тези оценки обаче не са били споделени публично.
„Притеснява ме, когато стандартните практики за безопасност не се спазват в цялата AI индустрия, като например публикуването на резултатите от оценките на опасните възможности“, казва и Стивън Адлер, независим изследовател в областта на AI, който преди това е ръководил екипи по безопасност в OpenAI, пред TechCrunch. „Правителствата и обществеността заслужават да знаят как AI компаниите се справят с рисковете на много мощните системи, които твърдят, че изграждат“.
Интересното относно съмнителните практики за безопасност на xAI е, че Мъск отдавна е един от най-известните защитници на безопасността в индустрията за изкуствен интелект. Милиардерът, лидер на xAI, Tesla и SpaceX, многократно е предупреждавал за потенциала на усъвършенстваните системи да причинят катастрофални последици за хората и е привърженик на отворения подход към разработването на модели за изкуствен интелект.