Наука или бизнес? Силициевата долина загърбва сигурността на AI, за да бълва продукти
Откакто OpenAI пусна ChatGPT в края на 2022 г., технологичната индустрия в много случаи дава приоритет на комерсиализацията пред научните изследвания
&format=webp)
Неотдавна Силициевата долина беше мястото, където водещите световни експерти в областта на изкуствения интелект провеждаха авангардни изследвания.
Meta, Google и OpenAI отвориха портфейлите си за най-големите таланти, като предоставиха на изследователите персонал, изчислителна мощ и голяма гъвкавост. С подкрепата на своите работодатели учените публикуваха висококачествени научни статии, като открито споделяха своите достижения с колеги от академичните среди и от конкурентни компании.
Но тази ера приключи. Сега, казват експертите пред CNBC, изкуственият интелект е изцяло свързан с продукта.
Откакто OpenAI пусна ChatGPT в края на 2022 г., технологичната индустрия пренасочи фокуса си към изграждането на готови за потребителите услуги с AI, като в много случаи дава приоритет на комерсиализацията пред научните изследвания, обясняват пред медията изследователи на AI и експерти в областта.
Потенциалът за печалба е огромен - някои анализатори предвиждат годишни приходи от 1 трилион долара до 2028 г. Но перспективите ужасяват тези, които са загрижени за безопасността, докато водещите играчи се стремят към изкуствен общ интелект или AGI. Това е технология, която съперничи или надхвърля човешкия интелект.
В надпреварата за конкурентоспособност технологичните компании използват все повече преки пътища, когато става въпрос за стриктното тестване на безопасността на техните модели, преди да бъдат пуснати на пазара, предупреждават експерти от бранша пред CNBC.
Джеймс Уайт, главен технологичен директор в стартъпа за киберсигурност CalypsoAI, заявява, че по-новите модели жертват сигурността в полза на качеството, т.е. на по-добрите реакции на чатботовете с изкуствен интелект. Това означава, че е по-малко вероятно те да отхвърлят злонамерени подкани, които биха могли да ги накарат да разкрият начини за създаване на бомби или чувствителна информация, която хакерите биха могли да използват.
„Моделите стават все по-добри, но също така е по-вероятно да са добри в лоши неща“, казва Уайт, чиято компания извършва одити за безопасност и сигурност на популярни модели от Meta, Google, OpenAI и други компании. „Все по-лесно е да ги заблудиш да правят лоши неща“.
Промените са лесно забележими при Meta и Alphabet, които са деприоритизирали изследователските си лаборатории за изкуствен интелект, казват експертите. Според настоящи и бивши служители в компанията майка на Facebook нейното звено Fundamental Artificial Intelligence Research (FAIR) е било изместено на заден план от Meta GenAI. В Alphabet пък изследователската група Google Brain вече е част от DeepMind - подразделението, което ръководи разработването на AI продукти в технологичната компания.
Затова и CNBC разговаря с повече от дузина специалисти по изкуствен интелект в Силициевата долина, които заедно разказват за драматичната промяна в индустрията- пренасочване от изследователска дейност към продукти, генериращи приходи.
Примерът Meta
Когато през април Жоел Пино, вицепрезидент на Meta и ръководител на подразделението FAIR на компанията, обявява, че ще напусне поста си, много бивши служители не са изненадани. Те смятат, че това е затвърждаване на отдалечаването на компанията от изследванията на изкуствения интелект и отдаването на приоритет на разработването на практически продукти.
„Днес, когато светът претърпява значителна промяна, когато надпреварата за AI се ускорява и когато Meta се подготвя за следващата си глава, е време да създадем пространство за други, които да продължат работата“, пише Пино в LinkedIn, като добавя, че официално ще напусне компанията на 30 май.
Той започва да ръководи FAIR през 2023 г. Звеното е създадено десетилетие по-рано, за да работи по трудни проблеми на компютърните науки, с които обикновено се занимават академичните среди. Според няколко бивши служители на Meta първоначално проектът е бил ръководен от Ян Лекун, един от кръстниците на съвременния изкуствен интелект, който въвежда изследователски методологии, усвоени по време на работата му в пионерските лаборатории на AT&T Bell. Малки изследователски екипи могат да работят по различни авангардни проекти, които да се окажат успешни или не.
Промяната започва, когато Мета съкращава 21 000 служители, или почти една четвърт от работната си сила, от края на 2022 г. Главният изпълнителен директор Марк Зъкърбърг дава старт на 2023 г., като я нарича „година на ефективността“. Изследователите от FAIR са насочени да работят по-тясно с продуктовите екипи.
Стартирането на ChatGPT от OpenAI през 2022 г. изненадва Мета, създавайки усещане за спешност за влагане на повече ресурси в големите езикови модели или LLM, които бяха завладели технологичната индустрия. През 2023 г. компанията започва да набляга на свободно достъпната си фамилия модели с отворен код Llama, за да се конкурира с OpenAI, Google и други.
След като Зъкърбърг и други ръководители са убедени, че LLM са технологии, които променят правилата на играта, ръководството губи стимул да позволява на изследователите от FAIR да работят по далечни визионерски проекти. Това означава, че трябва да се деприоритизират изследванията, за които може да се смята, че нямат въздействие върху основната дейност на Meta, като например предишните проекти на FAIR, свързани със здравеопазването и подобряване на лекарствените терапии.
Примерът Google
През март Google пусна най-новия си и най-мощен модел за изкуствен интелект - Gemini 2.5. Компанията го описа като „най-интелигентния ни AI модел“ и написа в блог публикация от 25 март, че новите модели „могат да обмислят, преди да отговорят, което води до подобрена производителност и повишена точност“.
В продължение на седмици след пускането на Gemini 2.5 липсваше карта на модела, което означава, че Google не е споделила информация за това как работи моделът или какви са неговите ограничения и потенциални опасности. Картите на моделите са често използван инструмент за прозрачност.
На уебсайта на Google картите на моделите се сравняват с етикетите на хранителните продукти: В тях се излагат „ключовите факти за модела в ясен, лесно смилаем формат“.
„Като правят тази информация лесно достъпна, картите на моделите подпомагат отговорното разработване на AI и приемането на стабилни, общоотраслови стандарти за широка прозрачност и практики за оценка“, се казва на уебсайта.
В публикация в блога си от 2 април Google пише, че оценява своите „най-усъвършенствани модели, като Gemini, за потенциално опасни възможности преди пускането им в продажба“. По-късно Google актуализира блога, за да премахне думите „преди пускането им“.
Без карта на модела Gemini 2.5 обществеността няма как да разбере какви оценки на безопасността са били извършени и дали DeepMind изобщо е проверявала за нежелани възможности.
В отговор на запитване на CNBC от 2 април относно липсващата карта на модела на Gemini 2.5, говорител на Google заявява, че „предстои да бъде публикуван технически доклад с допълнителна информация за безопасността и карти на моделите“. Google публикува непълна карта на модела на 16 април и я актуализира на 28 април, повече от месец след пускането на модела, за да включи информация за „оценките на опасните възможности“ на Gemini 2.5.
Тези оценки са важни за определяне на безопасността на модела - дали хората могат да го използват, за да научат как да създават химически или ядрени оръжия или да хакват важни системи. Тези проверки също така определят дали даден модел е способен да се възпроизвежда самостоятелно, което може да доведе до загуба на контрол върху него от страна на компанията. Според експертите от бранша провеждането на тестове за тези възможности изисква повече време и ресурси, отколкото обикновените, автоматизирани оценки на безопасността.
Примерът OpenAI
В центъра на съществуването на OpenAI е дебатът за съотношението между продуктите и изследванията. Компанията е създадена като изследователска лаборатория с нестопанска цел през 2015 г. и сега е в разгара на спорно усилие да се трансформира в организация със стопанска цел.
Това е посоката, за която съоснователят и главен изпълнителен директор Сам Алтман настоява от години. На 5 май обаче OpenAI се поддаде на натиска на граждански лидери и бивши служители, като обяви, че организацията с нестопанска цел ще запази контрола си върху компанията, дори когато тя се преструктурира в корпорация в обществена полза.
Нисан Стиенън е работил в OpenAI от 2018 г. до 2020 г. и е сред групата бивши служители, които настояват Калифорния и Делауеър да не одобряват преструктурирането на OpenAI.
„Един ден OpenAI може да създаде технология, която да доведе до смъртта на всички нас“, пише Стиенън в изявление през април. „Заслугата на OpenAI е, че тя се контролира от организация с нестопанска цел, която има дълг към човечеството“.
Но дори и при запазване на контрола и мажоритарната собственост от страна на нестопанската организация, OpenAI ускорено работи за комерсиализиране на продукти, тъй като конкуренцията в областта на генеративния изкуствен интелект се изостря. И може би е избързала с пускането на модела си за разсъждение o1 миналата година, според някои части от картата на модела.
Резултатите от „оценките на готовността“ - тестовете, които OpenAI провежда, за да оцени опасните способности на даден модел и други рискове - се основават на по-ранни версии на o1. Те не са били проведени върху окончателната версия на модела, според неговата пътна карта, която е публично достъпна.
Йоханес Хайдеке, ръководител на системите за безопасност на OpenAI, казва в интервю за CNBC, че компанията е провела оценките си за готовност върху почти окончателни версии на модела o1. По думите му незначителните промени, направени след тези тестове, не биха допринесли за значителни скокове в неговата интелигентност или разсъждения и следователно не биха изисквали допълнителни оценки.
OpenAI е критикувана и за това, че според съобщенията е съкратила времето за тестване на безопасността от месеци на дни и че е пропуснала изискването за анализ на безопасността на фино настроени модели в последната си „Рамка за готовност“.