Липсата на вътрешна способност за обмисляне или с други думи - мисловна дейност, отдавна се смята за една от основните слабости на изкуствения интелект.

Мащабът на напредъка в тази област, постигнат от създателя на ChatGPT OpenAI, е предмет на дебат в научната общност. Но той кара учените и експертите да вярват, че има вероятност да сме на ръба на преодоляване на пропастта до разсъжденията на човешко ниво.

Изследователите отдавна твърдят, че традиционните невронни мрежи - водещ подход към изкуствен интелект, съответстват повече на познанието „система 1“, което съответства на директните или интуитивни отговори на въпроси (например при лицево разпознаване).

Човешкият интелект, от друга страна, също разчита на познание по „система 2“. Тя включва вътрешно обмисляне и позволява мощни форми на разсъждение (като например при решаване на математическа задача или планиране на нещо в детайли). Тя ни позволява да комбинираме части от знанието по последователни и нови начини.

Това пише за Financial Times Йошуа Бенгио, професор по компютърни науки в Университета в Монреал и основател на Квебекския институт за изкуствен интелект Mila.

Напредъкът на OpenAI, който все още не е напълно публично достъпен, се основава на форма на изкуствен интелект с вътрешно обмисляне, осъществена с техния голям езиков модел (LLM).

По-доброто разсъждаване би отстранило две основни слабости на сегашния AI: слабата съгласуваност на отговорите и способността за планиране и постигане на дългосрочни цели.

Първото е важно при научните приложения, а второто е от съществено значение за създаването на автономни агенти. И двете могат да дадат възможност за важни приложения, допълва професорът.

Принципите на разсъжденията са в основата на изследванията на изкуствения интелект през 20-и век. Ранен пример за успех е AlphaGo на DeepMind - първата компютърна система, която победи човешки шампиони в древната азиатска игра Го през 2015 г., а наскоро и AlphaProof, която се занимава с математически теми.

Тук невронните мрежи се учат да предвиждат полезността на дадено действие. Такива „интуиции“ се използват за планиране чрез ефективно търсене на възможни последователности от действия.

Въпреки това AlphaGo и AlphaProof включват много специализирани познания (съответно за играта Го и специфични математически области). Това, което остава неясно, е как да се съчетае широтата на знанията на съвременните LLM с мощни способности за разсъждение и планиране.

Налице са някои постижения. Вече има по-добри отговори на сложни въпроси, когато са помолени да представят верига от мисли, водещи до отговора.

Новата серия „o“ на OpenAI доразвива тази идея и изисква много повече изчислителни ресурси, а следователно и енергия, за да го направи. С дълга мисловна верига тя се обучава да „мисли“ по-добре.

По този начин виждаме появата на нова форма на изчислително мащабиране, коментира професорът. Не само повече данни за обучение и по-големи модели, но и повече време, прекарано в „мислене“ за отговорите.

Това води до значително подобряване на възможностите в тежки за разсъждения задачи като математика, информатика и наука в по-широк смисъл.

Например, докато предишният модел на OpenAI GPT-4o постигна само около 13% резултат на математическата олимпиада в САЩ през 2024 г. (на теста AIME), o1 постига 83% резултат, което го постави сред най-добрите 500 ученици в страната.

Ако успее, има сериозни рискове, които трябва да се вземат предвид. Все още не знаем как да съгласуваме и контролираме надеждно AI. Например оценката на o1 показа повишена способност за заблуждаване на хора - естествена последица от подобряването на уменията за постигане на цели.

Обезпокоително е също така, че способността на o1 да помага за създаването на биологични оръжия е преминала собствения праг на риска на OpenAI от нисък към среден. Това е най-високото приемливо ниво според компанията (която може би има интерес да поддържа загрижеността ниска).

Смята се, че отключването на разсъжденията е основен етап по пътя към изкуствения интелект на човешко ниво, известен още като общ изкуствен интелект. Поради това за големите компании, които се стремят към тази цел, съществуват силни икономически стимули да намалят разходите за безопасност.

o1 вероятно ще бъде само първата стъпка. Въпреки че се справя добре с математически задачи, изглежда, че дългосрочното планиране все още не е постигнато. o1 се бори с по-сложни задачи за планиране, което предполага, че все още има какво да се направи, за да се постигне автономно управление, към което се стремят компаниите за изкуствен интелект.

Но с подобрените програмни и научни способности може да се очаква, че тези нови модели биха могли да ускорят изследванията върху самата технология.

Това може да доведе до достигането на AI до човешко ниво на интелигентност по-бързо от очакваното. Напредъкът в способностите за разсъждение прави още по-наложително регулирането на моделите с цел защита на обществото, завършва анализът на професора.