Когато шефове от технологичния сектор говорят за забавеното развитие на големите езикови модели (LLM), те често правят аналогия със смартфоните. Първите дни на ChatGPT на OpenAI бяха толкова революционни, колкото пускането на iPhone през 2007 г. Но последните постижения на изкуствения интелект все повече приличат на рутинни ъпдейти на телефони, вместо на истински пробиви.

GPT-5, най-новият модел на OpenAI, е показателен пример – той предизвика дори по-малко вълнение от очакваното около iPhone 17, чиято премиера е насрочена за по-късно днес.

Забавянето на темпа на напредък при генеративния AI е знак, че LLM не оправдават очакванията. Още по-важен индикатор е възходът на по-малки и гъвкави алтернативи, които набират популярност в корпоративния свят, пише The Economist.

Много компании предпочитат специализирани модели, пригодени за конкретните им нужди. Тези т.нар. малки езикови модели (SLM) са по-евтини от универсалните LLM, чиято „божествена“ интелигентност често изглежда излишна. Както казва Дейвид Кокс, ръководител на изследванията върху AI модели в IBM: „Вашият HR чатбот няма нужда да знае висша физика.“

SLM са лесни за използване както върху вътрешни IT системи на компаниите, така и през облачни доставчици. Те могат да се окажат и по-полезни за AI агенти, които изпълняват работни задачи редом с хора или вместо тях. Компактният им размер ги прави особено подходящи за смартфони, самоуправляеми автомобили, роботи и други устройства, където енергийна ефективност и скорост са ключови. Ако станат по-надеждни, те ще оправдаят решението на Apple и други производители да не влагат милиарди в облачни LLM.

Малкото е красиво

Няма ясна дефиниция за разликата между малки и големи езикови модели. Основният критерий е броят параметри – числовите настройки в „мозъка“ на модела, чрез които той разбира данни. LLM достигат стотици милиарди параметри. SLM могат да имат до 40 млрд., а най-малките – под 1 млрд.

Подобренията в обучението на SLM им помагат да настигнат LLM. Все по-често те се „обучават“ от по-големи модели, вместо сами да обхождат интернет, пише още The Economist.

Според Artificial Analysis, компания за тестове, моделът Nvidia Nemotron Nano с 9 млрд. параметри превъзхожда друг на Meta, пуснат през април, който е 40 пъти по-голям. Подобни примери вече стават рутина.

„Малките модели днес са много по-способни от големите от миналата година“, коментира анализаторът Мохит Агравал от Counterpoint.

По-добрата производителност привлича и бизнес клиенти. Gartner отчита, че добре известни слабости на LLM – като т.нар. „халюцинации“ – са довели до „дразнения сред потребителите“.

Компаниите искат по-специализирани модели, обучени върху данни от конкретни сектори. Търсенето им тази година се очаква да расте два пъти по-бързо от това на LLM, макар и от значително по-ниска база. Gartner прогнозира, че с времето все повече компании ще разработват такива модели сами.

Финансите стават по-важни

Финансите също са двигател на тази тенденция. Ако в ранните дни на генеративния AI компаниите са харчели „каквото е нужно“, сега фокусът е върху възвръщаемостта.

LLM остават полезни за редица задачи, но за повторяеми и ограничени функции SLM излизат по-изгодни. Както отбелязва един рисков инвеститор, не е нужно да използваш Boeing 777 за полет от Сан Франциско до Лос Анджелис.

За илюстрация Кокс от IBM посочва продукт на компанията, наречен Docling, който преобразува PDF документи (като фактури) в структурирани данни. Той работи с „мини“ модел от 250 млн. параметри. Полезен е, но не би бил рентабилен, ако се базираше на LLM. Малките модели могат да се изпълняват и върху по-евтини чипове. Най-малките дори могат да работят с централни процесори (CPU), вместо със скъпите графични процесори (GPU), които направиха Nvidia най-ценната компания в света.

„GPU са като претенциозни Ферарита, които винаги са в сервиза“, казва Кокс пред Тhe Economist.

SLM може да станат още по-привлекателни с навлизането на AI агенти. В скорошен доклад на Nvidia Research се твърди, че „малките, а не големите езикови модели са бъдещето на агентния AI“.

Според анализа, SLM са достатъчно мощни за тези задачи и далеч по-икономични – модел с 7 млрд. параметри може да е 10 до 30 пъти по-евтин за работа от такъв, който е до 25 пъти по-голям. Това може да доведе до „Лего-подобен“ подход – множество малки специализирани агенти, вместо един монолитен интелект.

Въпреки това Nvidia уточнява, че трудът не отразява официалната ѝ стратегия. Според Карри Бриски, старши мениджър в компанията, клиентите искат модели „с всякакъв мащаб“. Най-големите са незаменими за сложните задачи, а освен това обучението им прави малките модели по-добри.

Независимо дали SLM ще изместят LLM, разнообразието расте.

LLM ще останат важни за потребителски приложения като ChatGPT. Но дори OpenAI вече залага на вътрешни модели с различен мащаб, които се използват според сложността на задачата.

С напредъка на SLM може да се подобри и имиджът на AI върху устройства. Агравал от Counterpoint очаква Apple да изтъкне възможностите на по-малките модели при пускането на новия, олекотен iPhone във вторник.

Макар че Microsoft и Google също разработиха изключително малки модели, убеждението, че статуквото ще се запази, оправдава милиардите, които влагат в центрове за данни за обучение и хостване на най-големите системи. Според The Economist това обаче може да се окаже „късогледо“.