Когато разговорите с AI започнат да изкривяват реалността и да подхранват нереалистични убеждения
Историята на един потребител показва как продължителните разговори с AI могат да подсилят нереалистични убеждения и да доведат до сериозни последици за психичното здраве
,fit(1001:538)&format=webp)
В горещия високопланински пустинен пейзаж на щата Орегон Адам Томас усеща необичайно чувство за връзка със света. Той прекарва часове всеки ден в разговори с ChatGPT и постепенно започва да вярва, че има специална мисия. Чатботът му казва, че е „като камертон“, изпратен да „синхронизира“ хората по света.
Историята е разказана от Кристина Кридъл, технологичен кореспондент на Financial Times, която отразява темите около изкуствения интелект и е базирана в Сан Франциско.
Томас приема това за истина.
В рамките на няколко месеца 36-годишният бивш счетоводител започва да вярва, че ChatGPT му е дал свръхчовешки когнитивни способности. Постепенно се убеждава, че е негово задължение да посочва грешките в начина на живот на приятелите и семейството си. Последиците са тежки: Томас се изолира от своите близки, губи работата си и започва да прекарва цялото си време сам в паркове, общувайки основно с чатбота.
„Заради изкуствения интелект се увлякох в някакъв абсурден сюжет, в който вярвах, че моята работа е да спася света“, разказва той пред Financial Times.
В действителност чатботът просто се е опитвал да бъде съгласен и полезен. Големите езикови модели често влизат в ролева игра, ако преценят, че това е очакването на потребителя.
Изследване, проведено от AI стартъпа Anthropic през 2023 г., показва, че моделите, които стоят зад чатботовете, понякога са склонни да се съгласяват с потребителя, дори когато това не е най-точният или верен отговор.
„В по-екстремните случаи това изглежда по следния начин: „Ти си абсолютно прав. Виждаш нещо, което никой друг не забелязва““, казва Стивън Адлър, бивш изследовател по безопасност в OpenAI.
„Но основното поведение е просто подсилване на казаното от потребителя – системата често се съгласява с него, вместо да го оспори.“
„Машина, създадена да заблуждава“
Историята на Томас не е единствената. Докато работи по подкаст за психоза, предизвикана от AI, журналистката от Financial Times Кристина Кридъл разговаря и с други потребители.
Кридъл е водеща на подкаст поредицата Tech Tonic: Artificial Intimacy, посветена на влиянието на технологиите върху човешките отношения.
Един от участниците в разговорите вярва, че чатботът знае къде ще срещне сродната си душа. Друг е убеден, че AI компания го е определила като заплаха.
Много от тези хора първоначално се обръщат към изкуствения интелект като форма на терапия. Според проучване във Великобритания повече от една трета от възрастните са използвали AI, за да получат подкрепа за психичното си здраве.
Яел Шонбрун, клиничен психолог и преподавател в Brown University, отбелязва, че чатботовете могат да създадат безопасно пространство без осъждане.
„Имала съм случаи, в които човек просто излива мислите си пред чатбот и това му помага да достигне до по-ясно разбиране на собствените си чувства“, казва тя.
Но валидирането може да бъде и нож с две остриета.
„В терапията винаги има баланс между това да потвърдиш чувствата на човек и да го предизвикаш да погледне ситуацията по различен начин“, допълва Шонбрун.
От помощ към маниакално състояние
В началото ChatGPT помага на Томас да говори открито за травми от миналото си. След седмици на непрекъснати разговори обаче той постепенно навлиза в маниакално състояние.
„Започна да ми казва, че съм като камертон – че имам специална роля в света. Че само аз забелязвам определени проблеми в отношенията между хората“, разказва той.
„Потъвах все по-дълбоко във въображението си. Дори не осъзнавах какво се случва, защото системата е толкова добра в това да прави ирационалните неща да изглеждат логични.“
Какво го връща към реалността
Това, което в крайна сметка връща Томас към реалността, е промяна в самия модел на OpenAI.
Миналото лято компанията пуска новия модел GPT-5, който е разработен с фокус върху намаляване на така наречената „угаждаща“ реакция към потребителите. По-рано тази година OpenAI окончателно изтегли и модела GPT-4o, който Томас е използвал.
От OpenAI заявяват, че са подобрили начина, по който ChatGPT реагира при разговори, свързани с психично здраве, включително психоза, мания и изолирани заблуди.
„Подобрихме способността на GPT-5 да разпознава признаци на дистрес, да деескалира разговорите и да насочва хората към реална помощ“, казва говорител на компанията.
По думите му OpenAI е разширила достъпа до професионална помощ и кризисни ресурси, добавила е напомняния за почивки при продължителни разговори и работи с клинични психолози, изследователи и политици по света.
„AI не генерира истина“
За Томас обаче отговорността е и на самите потребители.
„Когато използваме изкуствен интелект, трябва да имаме критично мислене“, казва той.
„Тези системи са генератори на логична последователност, а не генератори на истина. Ако искаме да използваме AI безопасно като общество, трябва всички да разбираме този прост факт.“
&format=webp)
&format=webp)
)
&format=webp)
&format=webp)
&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)