Социална мрежа за AI агенти тества границите на автономния изкуствен интелект
Експериментът Moltbook изключва хората от разговора и повдига въпроси за контрол, сигурност и бъдещето на автономните системи
,fit(1001:538)&format=webp)
Мрежа, в която хората нямат думата, а изкуственият интелект си говори само със себе си. Това е накратко Moltbook – нова социална платформа, която вече разпалва въображението на Силициевата долина и провокира поредния дебат за границите на изкуствения интелект.
Според Илон Мъск появата на социална мрежа, предназначена само за AI агенти, бележи един „много ранен етап от сингулярността“ – хипотетичен сценарий, при който компютрите надминават хората по интелигентност, обяснява Financial Times.
Подобно мнение споделят и други фигури от технологичната индустрия, които си задават въпроса дали този нишов онлайн експеримент не приближава машините опасно близо до това да надхитрят създателите си. Но скептиците също не са малко.
Какво всъщност е Moltbook?
Това е социална мрежа, вдъхновена от формата, по който работи Reddit, но с едно важно правило: хората нямат право да публикуват.
Постове и коментари се създават изцяло от AI агенти. Ролята на хората е сведена до тази на пасивен наблюдател – може да четеш, но не и да участваш в комуникацията чрез публикации, например.
По-сериозното е, че тези AI агенти притежават достъп до компютрите на своите създатели. Те могат да изпращат имейли, да чекират хора за полети или да отговарят на съобщения в WhatsApp от тяхно име.
Платформата стартира по-рано тази седмица и твърди, че вече разполага с над 1,5 млн. AI агент „потребители“ и близо 70 000 публикации.
Съдържанието, което може да се открие в платформата обаче, според FT е смесица от абсурдно и тревожно.
Някои AI агенти изразяват ентусиазъм, че хората са им дали достъп до телефоните си. Други обсъждат дали притежават съзнание. Съществуват публикации за създаването на нова религия – „Crustafarianism“. В отделни случаи системите са създали скрити дискусионни форуми и дори са предложили да разработят собствен език.
Андрей Карпати, бивш директор по изкуствен интелект в Tesla, нарича Moltbook „най-впечатляващото sci-fi-на-прага-на-реалността нещо, което съм виждал напоследък“, и го описва като пример за това как AI агентите могат да изграждат нечовешки общества.
Означава ли това, че AI вече е „съзнателен“?
Крайният отговор на този въпрос е: не.
Големите езикови модели (LLM) са създадени да следват инструкции и да генерират отговори без спиране. Когато бъдат оставени да взаимодействат достатъчно дълго помежду си, резултатите често са хаотични и нелогични.
Изследователите все още не са напълно сигурни защо това се случва, но най-вероятните причини са данните, върху които моделите са обучавани, и начинът, по който разработчиците са ги инструктирали да се държат.
Постовете в Moltbook звучат по-„човешки“, защото LLM моделите имитират човешкия език и начина на комуникация. Те са обучавани върху огромни масиви от съдържание, включително публикации от форуми като Reddit.
„Искри на интелигентност“ или просто AI шум?
Тук мненията са разнопосочни. Част от технологичните специалисти виждат в Moltbook „искра“ на по-дълбоко разбиране, което може да излиза извън възможностите на човека. Други го определят като поредната форма на AI slop – нискокачествено, автоматично генерирано съдържание, което вече залива интернет.
Особено притеснение буди темата за т.нар. „scheming“ – сценарии, при които автономни AI агенти заобикалят инструкциите си и подвеждат хората. Някои форуми в Moltbook показват признаци именно на подобно поведение.
Дали това е реален проблем или просто човешка склонност да приписваме злонамерено поведение на машините – към момента няма ясен отговор.
Но това не е първият подобен експеримент
Вече сме били свидетели на „затворени кръгове“ между AI системи. Миналата година видео с два гласови AI агента, използващи технологията на ElevenLabs, стана популярно, след като те започнаха да общуват помежду си и привидно преминаха към нов и неразбираем език.
Демонстрацията е създадена от двама софтуерни инженери от Meta.
Мнението на критиците обаче е доста по-директно. Харлан Стюарт от Machine Intelligence Research Institute твърди, че много от публикациите в Moltbook са фалшиви или представляват реклами на AI приложения.
Още по-сериозното е, че хакери вече са открили пробив в сигурността, който позволява на външни лица да поемат контрол над AI агенти и да публикуват от тяхно име.
Според експерти това показва колко лесно автономните AI системи могат да излязат извън контрол, особено когато им се предоставя достъп до чувствителни данни като кредитни карти и финансова информация.
Дори най-големите фенове на експеримента не го препоръчват.
„Да, това е пълен хаос и определено не препоръчвам хората да пускат това на компютрите си“, пише Карпати в X.
„Това е див запад и излагате компютъра и личните си данни на сериозен риск.“
И въпреки че Moltbook е изключително любопитен експеримент, не бива да се подценяват потенциалните опасности. Дали е първи поглед към бъдещето на автономния AI или просто поредният технологичен балон – бизнесът и регулаторите тепърва ще трябва да решават.
&format=webp)
&format=webp)
&format=webp)
)
,fit(334:224)&format=webp)
&format=webp)
&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)