Хората харесват измамници, звучащи авторитетно. AI чатботовете умеят това
Няколко дни след като Google и Microsoft обявиха, че търсачките им ще предоставят резултати, генерирани от софтуер с изкуствен интелект, много хора започна да ги тормози мисълта, че на тези нови помощници не трябва да се вярва.
В края на краищата, дори самите разработчици на AI в Google предупредиха, че чатботовете ще бъдат просто едни "стохастични папагали" (вероятно кряскайки неща, които са грешни, глупави или обидни) и "склонни към халюцинации" (просто ще си измислят неща), отбелязва Адам Роджърс в статия за Business Insider, озаглавена ChatGPT е робот измамник и ние сме загубеняци, ако му се доверяваме.
Ботовете, базирани на това, което е известно като широки езикови модели (LLM), "са обучени да предсказват най-вероятното твърдение", написа миналата година екип на DeepMind, притежаваната от Alphabet AI компания, в презентация за рисковете от LLM. "И все пак, дали едно твърдение е най-вероятното, или не, не е надежден показател дали то е правилно."
Не отне много време преди самите чатботове да предоставят доказателства за това. Миналата седмица реклама на бота Bard на Google показа, че той дава грешен отговор на въпрос. Компанията понесе многомилиарден удар заради цената на акциите си. Отговорите, които ботът на Bing, Сидни, даде в откритата си демонстрация, не успяха да издържат една елементарна проверки на фактите.
Може ли един грешен отговор да струва 163 млрд. долара?AI чатботът на Google - Bard, сбърка и изтри БВП на няколко държави от пазарната капитализация на Alphabet
Технологичният елит шеговито започна да нарича ботовете mansplaining as a service, посочва Роджърс (терминът "mansplaining" се използва, за да опише случаите, когато мъж обяснява нещо на жена по снизходителен или покровителствен начин).
Въпреки че от самото начало знаем, че нашите нови роботи библиотекари дълбоко грешат, хората са готови да ги използват и да действат въз основа на отговорите, които им дават. Кое е това, което кара човешките същества да се доверяват на машина, за която знаем, че е ненадеждна?
Истината е, че след хилядолетия дебати философите, психолозите и невролозите не са се обединили около обяснение защо хората решават да вярват в разни неща или какво изобщо са вярванията, коментира авторът и добавя, че самият той има някои подозрения защо е вероятно да се влюбим в номерата на ChatGPT. „Ние, хората, си падаме по хлъзгави измамници, звучащи впечатляващо и авторитетно. А ботовете просто ще станат все по-добри в това да ни мамят“, пише той.
Джо Витриол, политолог от университета Лехай, който изучава дезинформацията, казва, че очаква хората да "приемат отговорите на ботовете, стъпвайки на собствените си предубеждения ". С други думи, хората ще повярват на чатбот, ако той им казва неща, които отговарят на вече съществуващите им вярвания и мнения - точно както го правят с традиционните резултати от Google. Дали чатботът казва истината или халюцинира, всъщност няма да има значение.
"Наивните потребители могат да възнаградят ботът с доверие, което дори и хората не получават", казва още Витриол. "Чудя се дали хората ще бъдат склонни да пренебрегнат, или да отхвърлят възможността ботът, особено в сегашната си форма, да страда от същите пристрастия и грешки в разсъжденията като хората."
Затова способността на чатбота да генерира проза, за разлика от просто списък с полезни връзки, става опасна. Хората предават вярванията си социално, чрез езика. И когато много от нас споделят една система от вярвания, ние формираме по-сплотена и хармонична група. Но тази система може да бъде хакната. Защото добре комуникираните идеи – с правилните думи, фрази и тон – могат да изглеждат по-убедителни, отбелязва авторът на Business Insider.
Друго възможно обяснение защо сме толкова привлечени от чатботовете е, че имаме нужда да ни се обяснява. На някакво основно човешко ниво е наистина удовлетворяващо да подменим объркването със сигурност. Това ни кара да се чувстваме умни и че контролираме нещата, върху които нямаме контрол, пише още Роджърс.
Проблемът е, че всъщност не знаем какво кара хората да се поддават на едно обяснение пред друго.
Някои изследвания показват, че обясненията с най-голяма сила са тези, които са най-прости и най-широко приложими. Според други, когато им е даден избор, хората са по-склонни да вярват на истории, които съдържат повече подробности.
"Не вярвам да има консенсус за това кое прави едно обяснение привлекателно", казва Дънкан Уотс, социолог, който преподава курс в Университета на Пенсилвания, наречен "Да обясним обясненията".
5 основни предизвикателства пред навлизането на AI в интернет търсачките Всяка нова ера на технологиите идва с нови проблеми и изкуственият интелект не прави изключение Каквото и да е това необяснимо качество обаче AI чатботовете изглежда го притежават.
Само няколко дни преди Google и Microsoft да обявят предстоящата си ботификация, екип от социални учени от Станфорд публикува завладяващо проучване.
Учените показват на хиляди хора кратки статии по горещи теми като оръжията и въглеродните данъци. Някои версии са били написани от GPT-3, други от човек. След това учените измерват доколко хората са променили мнението си въз основа на статиите. Оказва се, че съобщенията, генерирани от AI, са били също толкова убедителни, колкото и човешките.
Когато изследователите разпитват своите човешки субекти, предпочели статиите писани от чатбот, те разбират, че създадените от човека „занаятчийски“ послания са съдържали твърде много метафори и други художествени форми. Текстът на GPT-3 е бил в по-голяма степен основан на доказателства.
Така се оказва, че точно детайлите, заради които ботът е по-малко човек, карат хората да са по-склонни да му вярват.