Създаването на устойчива инфраструктура за изкуствен интелект все по-често изглежда недостижимо. Въпреки дългогодишните обещания за намаляване на въглеродните емисии, технологичните гиганти изграждат масивни центрове за данни, често захранвани с изкопаеми горива. Натискът за внедряване на AI нараства, подкрепен и от политически инициативи в САЩ за облекчаване на екологичните регулации.

Въпреки тези тенденции бизнесът и потребителите търсят все по-голяма прозрачност, споделя в интервю за WIRED Саша Лучони, водещ изследовател в областта на устойчивия AI.

След четири години в Hugging Face, където създава първата класация за енергийна ефективност на AI модели с отворен код, Лучони основава Sustainable AI Group. Заедно с бившия директор по устойчивост на Salesforce Борис Гамазайчиков тя си поставя за цел да помага на бизнеса да оптимизира екологичния отпечатък на внедряваните AI инструменти.

Лучони отбелязва, че компаниите вече усещат сериозен натиск от служителите и бордовете си. Внедряването на инструменти като Copilot поставя въпроси относно влиянието на технологията върху ESG целите на организациите.

„За повечето компании AI вече е основна част от бизнес предлагането им. В този случай те трябва да разбират рисковете, да знаят къде физически работят моделите и към каква енергийна мрежа са свързани. Те трябва да са наясно с емисиите по веригата на доставки“, обяснява тя пред WIRED.

Регулаторната среда също се променя бързо. В Европа Законът за изкуствения интелект въвежда сериозни изисквания за устойчивост, а първите инициативи за отчитане вече са факт. В Азия правителствата започват да изискват конкретни данни от строителите на центрове за данни, за да планират енергийния капацитет на националните мрежи за години напред.

Експертът посочва като основен проблем масовото използване на мащабни езикови модели за задачи, които не го изискват. Тя отбелязва, че на пазара има явен конфликт на интереси.

„Много от големите компании, които създават моделите, са същите, които ви продават изчислителна мощност. Логично е да ви предложат най-големия модел, защото тогава ще се нуждаете от най-много ресурси“, отбелязва Лучони.

Тя съветва бизнеса ясно да определя реалните си нужди. Ако компанията иска само да търси във вътрешни документи, може да използва по-малък, по-евтин и енергийно ефективен модел. Големите и скъпи LLM системи трябва да се използват само за задълбочени изследвания и сложни анализи.

Лучони смята, че прикриването на данни от големите технологични компании скоро ще се обърне срещу тях. Тя дава за пример как интерфейси като ChatGPT на OpenAI или Claude на Anthropic биха могли да показват на потребителите колко енергия се изразходва за всяко запитване.

Инвестицията в реална устойчивост може да се превърне в значимо предимство за технологичните компании. Както отказът на Anthropic да работи с военните подобри имиджа им, така и първата компания, която изцяло премине към възобновяема енергия за своите центрове за данни, ще спечели доверието на корпоративния сектор.

Макар енергията за едно AI запитване да изглежда незначителна, умножена по милиони потребители, тя става съществен фактор за глобалния технологичен пазар.

„Точно както разполагаме с данни за транспорта или хранителната индустрия, имаме нужда от точни цифри за потреблението на енергия и вода от изкуствения интелект, за да можем да вземаме информирани решения“, категорична е Лучони пред WIRED.