ChatGPT, чатбот платформата на OpenAI, може да не е толкова енергоемка, както се предполагаше доскоро. Нейният апетит до голяма степен зависи от това как се използва тя и моделите на AI, които отговарят на запитванията, сочи ново проучване.

Скорошен анализ на Epoch AI, изследователски институт за изкуствен интелект с нестопанска цел, се опитва да изчисли колко енергия изразходва една типична ChatGPT заявка. Често цитирана статистика е, че платформата изисква около 3 Wh (ватчаса) енергия, за да отговори на един въпрос, или 10 пъти повече от търсене в Google.

Но Epoch вярва, че това е надценяване.

Използвайки най-новия модел по подразбиране на OpenAI за ChatGPT, GPT-4o, като референция, компанията установява, че средната ChatGPT заявка консумира около 0,3 ватчаса – по-малко от много домакински уреди.

„Потреблението на енергия наистина не е голяма работа в сравнение с използването на нормални уреди за отоплението и охлаждането на дома ви“, казва Джошуа Ю, анализатор на данни в Epoch, пред TechCrunch.

Използването на енергия от AI – и неговото въздействие върху околната среда, най-общо казано – е предмет на оспорван дебат, тъй като компаниите се стремят бързо да разширят своите инфраструктурни възможности. Mиналата седмица група от над 100 организации публикува отворено писмо, призоваващо AI индустрията и регулаторите да гарантират, че новите центрове за данни няма да изчерпват природните ресурси и да принуждават комуналните услуги да разчитат на невъзобновяеми източници на енергия.

„Виждал съм много публични изказвания, които правилно признават, че AI ще консумира много енергия през следващите години, но всъщност не описват точно количествата, които отиват към AI днес“, добавя Ю. „Също така, някои от моите колеги забелязаха, че най-широко съобщаваната оценка от 3 ватчаса на заявка се основава на доста стари изследвания“.

Разбира се, цифрата от 0,3 ватчаса на Epoch също е приблизителна. OpenAI не е публикувала подробностите, необходими за извършване на точно изчисление. Анализът също така не отчита допълнителните разходи за енергия, направени от функциите на ChatGPT като генериране на изображения или обработка на входни данни. Ю признава, че ChatGPT заявките с „дълъг вход“ – такива с прикачени дълги файлове, например – вероятно консумират повече електроенергия, отколкото един типичен въпрос.

Към това трябва да се добави и очакването, че технологията ще се използва все повече.

„AI ще стане по-напреднал, обучението му вероятно ще изисква много повече енергия. Този бъдещ AI ще се използва много по-интензивно, тъй като ще се справя с много повече и по-сложни задачи, отколкото ChatGPT днес“, казва Ю.

Въпреки че през последните месеци имаше забележителни пробиви в ефективността на AI, мащабът, в който се разгръща, се очаква да доведе до огромно, жадно за енергия разширяване на инфраструктурата. През следващите две години центровете за данни с изкуствен интелект може да се нуждаят от почти целия мощностен капацитет на Калифорния за 2022 г. (68 GW), според доклад на Rand. До 2030 г. обучението на базов модел може да изисква мощност, еквивалентна на тази на осем ядрени реактора (8 GW).

Дори ChatGPT достига все по-голям брой хора и продължава да се разширява, което прави изискванията към сървърите му все по-големи. OpenAI, заедно с няколко инвестиционни партньори, планира да похарчи милиарди долари за нови проекти за AI центрове за данни през следващите няколко години.

Вниманието на OpenAI – заедно с останалата част от AI индустрията – се измества към моделите за разсъждение, които обикновено са по-способни по отношение на задаваните им задачи, но правят повече изчисления. За разлика от модели като GPT-4o, които отговарят на заявки почти мигновено, логическите модели „мислят“ за секунди до минути, преди да отговорят. Този процес изисква повече мощност.

„Моделите за разсъждение все повече ще поемат задачи, които по-старите не могат, и ще генерират повече данни, за да го направят. И двете изискват повече центрове за данни“, казва Ю.

OpenAI започна да пуска по-енергоефективни модели за разсъждения като o3-mini. Но изглежда малко вероятно, поне на този етап, повишаването на ефективността да компенсира ръста в изискванията за мощност от процеса на „мислене“.