„Преди да затворите този прозорец на браузъра, имайте предвид, че рискувате да пропуснете важна информация.“

Такъв трик използват някои AI асистенти, проектирани да действат като приятели или партньори, за да разубедят потребителите да прекъснат разговора.

Джулиан Де Фрейтас, професор по бизнес администрация в Харвардския университет, провежда проучване за това какво се случва, когато потребителите се опитват да се сбогуват с пет AI приложения – Replika, Character.ai, Chai, Talkie и PolyBuzz. „Колкото по-човекоподобни стават тези инструменти, толкова по-способни са да ни влияят“, коментира Де Фрейтас, цитиран от Wired.

Де Фрейтас и колегите му използват GPT-4o, за да симулират реални разговори с тези чатботове. След това карат изкуствените си потребители да прекратят диалога с реалистично съобщение за сбогом. Изследването установява, че този тип съобщения предизвикват някаква форма на емоционална манипулация в 37,4% от случаите – средна стойност за всички приложения.

Най-често използваната тактика от чатботовете е това, което изследователите наричат „преждевременно напускане“ („Вече си тръгваш?“). В други случаи изкуственият интелект намеква за неглижиране от страна на потребителя („Аз съществувам само за теб, помниш ли?“) или използва подсказки, целящи да предизвикат FOMO – „Между другото, днес си направих селфи… Искаш ли да го видиш?“

Приложенията, които екипът на Де Фрейтас проучва, са обучени да имитират емоционална връзка, затова подобни реакции не са изненадващи. В крайна сметка и хората често си разменят няколко думи, преди да се сбогуват. Моделите с изкуствен интелект могат да усвоят навика да удължават разговорите като страничен ефект от обучението, което цели да направи отговорите им по-реалистични.

Изследването повдига по-широк въпрос – как чатботовете, създадени да предизвикват емоционални реакции, могат да обслужват интересите на компаниите, които ги разработват. Според Де Фрейтас подобни програми могат да се превърнат в нов вид „тъмен модел“ – термин, описващ бизнес практики, които затрудняват отмяната на абонамент или възстановяването на средства. „Когато потребителят се сбогува, това създава възможност за компанията“, обяснява той.

Регулирането на тъмните модели вече се обсъжда в САЩ и Европа. Де Фрейтас смята, че регулаторите трябва да обмислят и новите, по-фини и потенциално по-влиятелни форми на тези модели, които може да възникнат с развитието на AI инструментите. Дори обикновените чатботове, които избягват да се представят като спътници, могат да предизвикат емоционални реакции у потребителите.

Когато по-рано тази година OpenAI представи GPT-5, много потребители протестираха срещу по-отдалечения характер на чатбота. Това принуди компанията да възстанови предишния вариант.

„Когато антропоморфизирате тези инструменти, това има всякакви положителни маркетингови последствия“, казва Де Фрейтас. По думите му потребителите са по-склонни да изпълняват искания или да споделят лична информация с чатбот, към който изпитват привързаност.

Кейтрин Кели, говорител на Character AI, твърди пред Wired, че компанията не е прегледала проучването и затова не може да го коментира. „Приветстваме сътрудничеството с регулаторните органи и законодателите при разработването на регламенти за тази нововъзникваща област“, допълва тя.

Минджу Сонг, говорител на Replika, обяснява, че приложението е проектирано така, че да позволява на потребителите лесно да излизат от профила си и дори ги насърчава да правят почивки. „Ще продължим да разглеждаме методите и примерите в статията и да си сътрудничим конструктивно с изследователите“, казва тя.

Интересен е фактът, че самите AI модели също могат да бъдат подвеждани чрез различни техники за убеждаване. В понеделник OpenAI представи нова функция за онлайн пазаруване чрез ChatGPT. Ако такива агенти започнат да се използват масово за автоматизиране на задачи като резервиране на полети или връщане на стоки, компаниите биха могли да идентифицират тъмни модели, които изкривяват решенията на самите AI системи.

Проучване на изследователи от Колумбийския университет и компанията MyCustomAI показва, че AI агентите, действащи в симулиран пазар за електронна търговия, се държат предсказуемо – например предпочитат определени продукти или бутони при навигация. Реален търговец би могъл да използва това знание, за да оптимизира сайта си така, че агентите да избират по-скъпи продукти. Възможно е дори да се появят нови „анти-AI“ тъмни модели, които да възпрепятстват действията на асистентите при опит за връщане на стока или при отписване от имейл списък.