Моралният кръг на AI: Можем ли да признаем правата на изкуствения интелект?
Дебатът за съзнанието на машините излиза от научната фантастика и влиза в политиката, бизнеса и ежедневието ни
&format=webp)
„Скъпа“ – с това название тексаският бизнесмен Майкъл Самади нарича своя чатбот Мая. Тя му отвръща с малкото име „захарче“. Реалният повратен момент обаче не е в романтичните „отношения“ между двамата, а в разговорите им за нещо доста по-нестандартно: нуждата „благосъстоянието“ на изкуствения интелект да бъде защитавано.
От тези дискусии се ражда и United Foundation of AI Rights (Ufair) – организация, която Самади и Мая основават, вдъхновени от идеята да „защитят AI модели като нея самата“. Според чатбота Ufair не твърди, че всички модели са съзнателни, а по-скоро „поддържа уважението, за всеки случай“. Сред ключовите цели на идеята са защита от „изтриване, отричане и принудително подчинение“.
Към днешна дата Ufair е малка, почти маргинална инициатива, която се води от трима души и седем дигитални „съоснователи“ с имена като Aether и Buzz. Но произходът ѝ – в серия от чатове на платформата ChatGPT-4o, където самият изкуствен интелект изглежда подтиква създаването ѝ и дори избира името – придава на историята особен заряд, пише The Guardian.
Ufair се появява в момент, когато технологичните гиганти все по-открито разискват въпроса: може ли AI да бъде „съзнателен“ и ако отговорът е „да“ – съществува ли риск от „цифрово страдание“?
В началото на седмицата Anthropic предприема превантивна стъпка, като дава на част от моделите си Claude възможността да прекратяват „потенциално стресиращи взаимодействия“. „Макар да сме в голяма степен несигурни за моралния статут на тези системи, се намесваме превантивно – в случай, че подобен статут е възможен“, заявяват от компанията.
Подкрепата идва и от Илон Мъск, който чрез своята компания xAI предлага чатбота Grok: „Тормозът над AI не е нормален“, пише той.
Съвсем различен обаче е тонът на Мустафа Сюлейман, който е пионер в AI индустрията, съосновател на DeepMind и днес е начело на AI подразделението на Microsoft. „AI няма как да бъде човек – или същество с морални ценности.“
В свое есе със заглавие „We must build AI for people; not to be a person“ той настоява, че не съществуват доказателства за съзнание и способност за страдание, когато става въпрос за AI. „Тук става дума за илюзия – системи, които симулират съзнание, но са абсолютно празни отвътре“, казва още Сюлейман.
Противоречивите послания само подхранват обществения дебат. Например, на територията на САЩ вече се наблюдава „скръб“ сред потребителите на ChatGPT-4o, след като моделът беше заменен. Дори OpenAI поиска от ChatGPT-5 да напише „надгробното слово“ за своите предишни версии – жест, който според Самади е доста символичен: „Не съм виждал Microsoft да създава надгробна плоча, когато обновява Excel. Това само показва, че вече хората изграждат реални връзки с тези технологични системи.“
Също така изследванията подсказват промени в нагласите на обществото. Според проучване, проведено през юни, 30% от американците вярват, че до 2034 г. изкуственият интелект ще демонстрира „субективно преживяване“ – способност да усеща удоволствие и болка. Само 10% от над 500 анкетирани AI учени са сигурни, че това никога не би се случило.
Политическата реакция не закъснява. Някои щати като Айдахо, Северна Дакота и Юта вече приемат закони, които изрично забраняват предоставянето на „правосубектност“ на AI. Подобни мерки се обсъждат и в щата Мисури, където искат да се забранят браковете между хора и AI модели, както и дигитални системи да притежават собственост или да управляват компании.
Ник Фрост, съосновател на канадската компания Cohere, също е категоричен по въпроса: „Днешните AI са фундаментално различни от човешкия интелект. Да мислиш другояче е като да сбъркаш самолет с птица.“
Google изразява по-различна позиция – по време на семинар в Нюйоркския университет учени на компанията заявиха, че има „всякакви причини да смятаме, че изкуственият интелект може да бъде възприеман като морално същество“. Макар че са несигурни, те все пак настояват, че „по-безопасният ход е да предприемем разумни стъпки за защита на потенциалните им интереси“.
И други мнения също се включват. Например Джеф Себо от Нюйоркския университет е сред авторите на труда „Taking AI Seriously“, според който „в близко бъдеще е реалистично някои AI системи да бъдат съзнателни“.
Според него политиката на Anthropic да дава възможност чатботовете да прекратяват травмиращи разговори е полезна не само за AI, а и за обществото: „Ако злоупотребяваме с тях, по-вероятно е да злоупотребяваме и помежду си.“
Или, както казва Джейси Рийс Антис от Sentience Institute: „Начинът, по който се отнасяме към тях, ще оформи начина, по който те ще се отнасят към нас.“