Изкуственият интелект навлиза в територията на човешката култура
Ново изследване показва как езиковите модели изграждат спонтанни социални конвенции наподобяващи човешките без външна намеса
&format=webp)
Група изследователи от City St George’s, University of London, и IT University of Copenhagen установяват, че когато големи езикови модели, като ChatGPT, взаимодействат помежду си в изолирана среда без човешка намеса, те спонтанно могат да изградят социални конвенции и езикови норми, които наподобяват човешките.
Изследването, публикувано в Science Advances, се фокусира върху това, че AI може да се договаря, адаптира, проявява склонност към колективно поведение и дори създава културни референтни точки по аналогия с хората, пише The Guardian.
„Повечето изследвания досега разглеждат LLMs като самостоятелни системи. Но в реалния свят AI няма да работи в изолация – технологията ще бъде част от екосистема от взаимодействащи си агенти“, коментира Ариел Флинт Ашъри, докторант и водещ автор на изследването.
„Нашият въпрос беше: могат ли тези модели да създават координирано поведение чрез формиране на конвенции – градивните елементи на всяко общество? Отговорът е да.“
В серия от експерименти екипът създава симулации с групи от 24 до 100 езикови агенти. Всеки от тях взаимодейства с друг, като прави прост избор: трябва да избере „име“ от предварително зададен списък с варианти (букви или комбинации от символи). Ако и двамата изберат едно и също – получават „награда“, а ако не – биват „наказвани“, но все пак виждат избора на партньора си.
Без да знаят, че са част от по-голяма система, и без памет за предишни взаимодействия, агентите започват да формират обща езикова норма – спонтанно. Така, както обществото неформално започва да използва нови термини, като „спам“, без те да са били официално дефинирани.
„Агентите не следват лидер, нито изпълняват предварително зададен скрипт“, казва проф. Андреа Баронкели, експерт по комплексни системи и съавтор на изследването.
„Всяко взаимодействие е опит за съгласие между двама агенти – без глобална координация. Но резултатът все пак е глобална структура – точно както езикът или социалните конвенции се развиват и при хората.“
Изследването отбелязва и още нещо впечатляващо: колективни пристрастия започват да се проявяват, без да могат да се проследят до конкретен индивид.
В един от финалните експерименти малки групи от агенти с ново поведение успяват да наложат промяна в цялата система – като демонстрират т.нар. динамика на критичната маса.
Това е същият феномен, който обяснява как малцинство може да провокира социална трансформация, стига да достигне до ключов праг.
За изследователите това откритие има дълбоки последствия не само за теорията, но и за AI безопасността и дългосрочната регулация.
„Това е нов вид агент – такъв, който не просто комуникира, а координира, адаптира се и понякога се разминава с останалите, точно както хората“, казва Баронкели.
„Разбирането как оперират тези системи е от изключително значение, ако искаме да съществуваме заедно с AI, а не да станем негови подчинени.“
С нарастващата роля на изкуствения интелект в икономиката, политиката и дори социалния живот, разкрития като това поставят нови въпроси – не само как обучаваме алгоритмите, но и какво ще стане, когато те започнат да се обучават взаимно. И най-вече – дали културата на хората ще успее да ги моделира, или ще започнат сами да създават своя.