Михал Косински е психолог-изследовател в университета Станфорд.

Нагърбва се със задачата да открие отговорите на някои от най-важните и интригуващи въпроси за нашето време, свръзани с изкуствен интелект.

Ученият не е просто заинтригуван от разширяването на границите на психологията и AI, а си поставя за мисия да разкрие потенциалните рискове, които технологичният напредък може да донесе за обществото, пише Wired.

Преди това Косински прави проучвания как Facebook успява да събере информация и да създаде точен профил на своите потребители въз основа на прости модели за предпочитанията в платформата.

Но напоследък измества фокуса си към изненадващите – и понякога обезпокоителни способности на AI.

В последното си изследване концентрацията му е насочена върху това дали големите езикови модели (LLM) като GPT-3.5 и GPT-4 на OpenAI са преминали граница, която някога е смята единствено за човешка: способността да се разбира какво мислят другите.

Психолозите наричат това „теория на ума“ – умение, което обикновено развиваме в ранна детска възраст.

То ни позволява да тълкуваме и предвиждаме мислите, вярванията и чувствата на останалите, с които комуникираме. Теорията на ума е от съществено значение за взаимодействието в сложни социални ситуации.

Косински публикува статия в Proceedings of the National Academy of Sciences, където се твърди, че GPT-4 показва признаци на способности, подобни на теорията на ума.

Това, казва ученият, може да се е появило случайно, тъй като моделът е подобрил разбирането си. За него това е повече от техническо подобрение; сигнал, че AI може да стане много по-социално осъзнат и способен да разбира света по начина, по който хората го правят.

За да стигне до това заключение, Косински подлага GPT-3.5 и GPT-4 на някои тестове, предназначени да оценят способността на моделите да интерпретират човешката мисъл. Неговите открития предполагат, че тези модели – особено GPT-4 – могат да демонстрират поведение, подобно на теорията на ума, което би било значителна стъпка в еволюцията на AI.

Според Косински тази способност може да означава бъдеще, в което AI се сравнява и може би дори да надмине човешката социална интелигентност. „Това означава появата на по-мощен и социално квалифициран изкуствен интелект,“ казва той.

Косински разглежда своето изследване като продължение на предишната си работа по анализ на харесванията във Facebook. „Аз не просто изучавах социалните мрежи – аз изучавах самите хора,“ обяснява той.

Когато OpenAI и Google започват да разработват последните си AI модели, те първоначално ги виждат като инструменти за обработка на езика.

„Но в действителност,“ казва Косински, „те обучават моделите на начина, по който работи човешкият ум. Да предсказва следващата дума, която някой може да каже, изисква разбиране на мисловния процес на този човек.“

Въпреки откритията си, ученият е предпазлив в теорията си, защото не иска да надценява колко много тези езикови модели разбират човешката психология – или "теорията на ума" (ToM).

В своите експерименти той дава на AI моделите някои класически ToM тестове. Дори и да се представят впечатляващо при определени задачи, GPT-4 се бори с една четвърт от предизвикателствата, което го поставя приблизително на когнитивното ниво на шестгодишно дете.

Косински вижда това като забележителен напредък, особено в такъв ранен етап на развитието му.

„Като се има предвид бързата еволюция на AI, хората започват да се чудят дали и кога той може напълно да развие ToM или дори да достигне осъзнатост,“ отбелязва изследователят. Последното е голям скок, но потенциалните последици са интригуващи и дори плашещи за човечеството.

„Ако теорията на ума може да се появи спонтанно в AI, това предполага, че други сложни способности също биха могли да му се сторят като детска игра с течение на времето,“ казва той.

Това може да доведе до модели, които придобиват високи умения в преподаването, влиянието или дори манипулирането на хората.

Косински се тревожи, че обществото не е подготвено за AI системи, които в крайна сметка биха могли да разберат човешката психология по-добре от нас самите, като според него моментът наближава.

Той посочва важно разграничение: хората имат личности, които оформят техните мисли и действия, докато AI моделите просто имитират личности.

„Винаги ще съм с моята личност – тя е част от това, което съм,“ казва той. „AI, от друга страна, може да приеме всяка личност, която реши, и то по всяко време.“

Когато Косински сравнява тази гъвкавост с чертите на социопат, той обяснява с метафора: точно както социопатът може да симулира тъга, без да я чувства, AI може да приема различни личности без истинско емоционално преживяване.

Той предупреждава, че тази способност може да направи изкуствения интелект изключително ефективен при потенциална измама – без чувство за вина или угризения на съвестта.

Някои психолози поставят под въпрос откритията на Косински.

След като той публикува изследването си в Arxiv в началото на 2023 г., група изследователи на AI отговарят, че вероятно той визира ефекта на „Умния Ханс“ – препратка към коня от началото на 20-ти век, който изглежда решава математически уравнения, но всъщност отговаря на човешкото поведение.

Учените твърдят, че ако един езиков модел се провали дори на един тест за ToM, това означава, че му липсва истинско разбиране. „LLM могат да покажат известна способност за разсъждение, но тя не е пълна или стабилна като човешкото познание,“ казва Веред Шварц, асистент в Университета на Британска Колумбия, която е съавтор на отговора.

Основно притеснение е, че LLM се обучават на огромни маси от данни, които могат да включват експерименти, подобни на тестовете на Косински. Скептикът Гари Маркъс посочва, че някои ToM тестове, използвани от Косински, са цитирани над 11 000 пъти в академични статии, което предполага, че модели като GPT-4 може просто да знаят отговорите, вместо да показват истинско разбиране.

Косински обаче твърди, че е обърнал внимание на тези критики в своята актуализирана статия. Скорошни проучвания също подкрепят работата му, включително и едно в Nature Human Behavior, което установява, че GPT-3.5 и GPT-4 „показват впечатляваща производителност“ при някои ToM тестове, дори надхвърлящи нивото на човека.

Джеймс Страчан, водещ автор на изследването, отбелязва, че техните открития оспорват теорията за „измамата“, като предполагат, че LLM са способни да анализират естествения език, за да разкрият прозрения за човешките психични състояния.

Дали LLM могат напълно да постигнат теорията на ума, все още е предмет на дебати, но тяхното поведение все повече предполага, че се движат в тази посока. Дори Шварц признава, че по-напредналите модели в крайна сметка могат да разработят ToM.

Косински вярва, че теорията на ума е само едно от нещата, които AI ще се научи да прави и че бъдещите системи могат да покажат когнитивни способности отвъд това, което хората могат да си представят.