AI Халюцинация е терминът, с който се обозначава ситуацията, при която моделът на изкуствения интелект генерира невярна, подвеждаща или нелогична информация, но я представя като факт. Тези погрешни твърдения понякога са трудни за откриване, тъй като граматиката и структурата на изреченията често изглеждат красноречиви и уверени, въпреки че са грешни в естеството си.

Халюцинациите се дължат на ограничения или пристрастия в данните за обучение и алгоритмите, които потенциално могат да доведат до създаване на съдържание, което е не само погрешно, но и опасно.

Те са резултат от големи езикови модели (LLM), които позволяват на генеративните инструменти като ChatGPT да обработват езика по начин, подобен на човешкия. Въпреки че LLM са проектирани да създават плавен и последователен текст, те нямат разбиране за основната реалност, която описват. Единственото, което правят, е да предсказват каква ще бъде следващата дума въз основа на вероятност, а не на точност, посочва анализ на Built In.

Халюцинациите могат да се появят в генераторите на AI изображения, но най-често се свързват с инструментите за текст. Те са проблем за всяка организация и лице, които използват генеративен изкуствен интелект, за да получават информация и да вършат работата си - и то точно.

Какво причинява неточностите?

Те се причиняват от различни фактори, включително пристрастни или нискокачествени данни за обучение, липса на контекст, предоставен от потребителя, или недостатъчно програмиране в модела, което му пречи да интерпретира правилно информацията.

Това явление също може да бъде частично обяснено, ако разберете как работят LLM. На езиковите модели се подават огромни количества текстови данни, включително книги и новинарски статии. След това тези данни се разбиват на букви и думи. Докато LLM използват невронни мрежи, за да разберат как тези думи и букви работят заедно, те никога не научават значението на самите думи.

Емили М. Бендер, професор по лингвистика и директор на лабораторията по компютърна лингвистика към Вашингтонския университет, обяснява това по следния начин: "Ако видите думата "котка", тя веднага предизвиква преживявания, свързани с животните. За големия езиков модел това е поредица от знаци К-О-T-К-А", казва тя пред Built In. "След това в крайна сметка той има информация за това с какви други думи и с какви други последователности от знаци се среща тя."

Така че, въпреки че LLM имат способността да пишат всякакви неща, те все още не могат да разберат напълно основната реалност.

"Генеративният AI всъщност не е интелигентност, а съвпадение на модели", казва Шейн Орлик, президент на генератора на съдържание Jasper. "Той е проектиран така, че да има отговор, дори ако той не е фактически верен."

И все пак, ако техните данни за обучение са неточни или пристрастни, или ако моделът е твърде сложен и няма достатъчно предпазни мерки, LLM са склонни да грешат. Но тяхната "многословност" и "увереност" могат да затруднят забелязването на това къде точно или как моделът се е объркал, казва Кристофър Рийсбек, доцент и директор на Центъра за компютърни науки към Northwestern University.

"Те винаги генерират нещо, което е статистически правдоподобно", добавя Рийсбек. "Едва когато се вгледате внимателно, можете да кажете: "Чакай малко, това няма никакъв смисъл".

Примери за халюцинации

Някои неточности са по-очевидни от други. Те могат да варират от незначителни фактологични несъответствия до напълно измислена информация. Ето няколко вида халюцинации, с които може да се сблъскате при използването на технологията.

Фактическите неточности са сред най-често срещаните форми на AI халюцинации, при които моделът генерира текст, който изглежда верен, но не е. Основната същност на твърдението може да се основава на реалността и да звучи правдоподобно, но конкретните данни са погрешни.

През февруари 2023 г. чатботът Bard на Google (сега наречен Gemini) неправилно твърди, че космическият телескоп James Webb е направил първото изображение на планета извън Слънчевата система. Това е невярно - според НАСА първите картини на екзопланета са направени през 2004 г., а космическият телескоп "Джеймс Уеб" е изстрелян едва през 2021 г.

По подобен начин, в демонстрацията за стартиране на Microsoft Bing AI, чатботът (който използва същия LLM като ChatGPT), анализира отчетите за приходите на Gap и Lululemon, като според съобщенията е предоставил неправилно обобщение на техните факти и цифри.

Изфабрикувани данни

Известно е, че често генераторите на текстове с изкуствен интелект изнасят информация, която е напълно измислена и не се основава на никакви факти. Например ChatGPT може да създава URL адреси, библиотеки с код и дори хора, които не съществуват, като се позовава на измислени новинарски статии, книги и научни трудове.

През юни 2023 г. е съобщено, че адвокат от Ню Йорк е използвал ChatGPT, за да изготви молба, която се оказала пълна с фалшиви съдебни становища и правни цитати. Адвокатът, който по-късно е санкциониран и глобен, твърди, че "не е разбрал, че чатботът може да изфабрикува цели съдебни дела".

"Той е разработен така, че да създава резултати, които са правдоподобни и приятни за потребителя", обяснява Бендер. "Така че, когато адвокатът дойде и каже: "Покажете ми някаква съдебна практика, която подкрепя този въпрос", системата е създадена да предложи поредица от думи, които изглеждат верни, за да отговорят на задачата."

Халюцинациите на изкуствения интелект могат да бъдат и откровено опасни - не само в контекста на увреждане на репутацията, но и на телесни увреждания. Например, в Amazon се появяват книги за събиране на гъби, генерирани от AI. Това накара някои да се запитат дали лъжите в тези книги не могат да причинят заболяване или дори смърт.

Ако една от тези книги дава лош съвет за това как да се направи разлика между смъртоносна унищожаваща гъба и напълно безопасна печурка, "това е случай, в който поредица от думи, които изглеждат като информация, може веднага да се окаже фатална", казва Бендер

Дезинформация

Генеративният AI може също така да създава невярна информация за реални хора, като събира парчета данни- някои от тях верни, други не - и измисля истории, които някои потребители лесно могат да приемат за истина.

Когато е помолен да предостави случаи на сексуален тормоз в юридическата професия, ChatGPT измисля история за реален професор по право, твърдейки, че е тормозил студенти по време на училищна екскурзия. Това пътуване никога не се е случвало и той никога не е бил обвиняван в такова нещо в реалния живот. Но професорът е работил по някакъв начин за справяне със сексуалния тормоз и затова името му се е появило.

В друг случай ChatGPT невярно твърди, че кмет в Австралия е бил признат за виновен по дело за подкуп от 90-те и началото на 2000-те години. В действителност той е бил информатор по съдебния процес.

Подобна дезинформация може да навреди на засегнатите лица, и то не по тяхна вина. Проблемът дори привлече вниманието на Федералната търговска комисия на САЩ, която в момента разследва OpenAI, за да установи дали неверните ѝ твърдения са причинили вреди на репутацията на потребителите.

От една страна халюцинациите могат да се пренесат в новинарските статии, ако няма механизъм за проверка на фактите, което може да доведе до масово разпространение на дезинформация, потенциално засягаща препитанието на хората, правителствените избори и дори разбирането на обществото за това кое е вярно. Освен това те могат да бъдат използвани както от интернет измамници, така и от враждебно настроени държави, за да пропагандират и да създават проблеми.

Странни отговори

Някои халюцинации са просто странни или страховити. По своята същност моделите на изкуствения интелект се стремят да обобщават и да бъдат креативни в своите резултати. Тази креативност понякога може да доведе до някои чудати резултати, което не е непременно проблем, ако целта не е точността.

Всъщност Орлик от Jasper казва, че креативността, която понякога излиза от халюцинацията на AI, всъщност може да бъде "бонус", в зависимост от това за какво се използва технологията.

Неговият инструмент се използва главно сред маркетолозите, които винаги трябва да измислят изобретателни идеи. Ако в този процес Jasper създаде някое нестандартно копие или концепция, това всъщност може да бъде полезно за маркетинговия екип.

"Измислянето на идеи и различните начини да се погледне на даден проблем, е наистина чудесно", коментира Орлик. "Но когато всъщност се стигне до написването на съдържанието, то трябва да бъде фактологически точно. Именно там халюцинациите преминават границата и стават неизползваеми."

Загуба на доверие

Отзвукът от халюцинациите на изкуствения интелект се носи далеч отвъд един текст или индивида, който го чете. Напълнете интернет с достатъчно количество от тази дезинформация и ще се получи самоподдържащ се цикъл от неточно съдържание, който Бендер нарича "замърсяване на информационната екосистема".

"Тези системи, които произвеждат грешни данни, които понякога са проблематични, а понякога не, сега се смесват с нашите действителни, легитимни източници по начин, който е наистина труден за откриване и смекчаване", обяснява тя.

"От една страна, това затруднява доверието ни в нещата, на които би трябвало да можем да се доверим. Това би било наистина трудно да се поправи, без да се маркира синтетичната дезинформация при източника."

В крайна сметка халюцинациите са в състояние да променят доверието на хората. Не само в нашите "легитимни източници на информация", както споменава Бендер, но и в генеративния AI. Ако хората не смятат, че качеството на неговите резултати е фактическо или се основава на реални данни, тогава те трябва да избягват да го използват. Това може да е лоша новина за тълпите компании, които въвеждат иновации и внедряват тази технология.

"Ако не решим проблема с халюцинациите, мисля, че това определено ще навреди на възприятието на изкуствения интелект", отбелязва Орлик.

Как да предотвратим халюцинациите на изкуствения интелект

Всички лидери в областта на генеративния AI работят, за да помогнат за решаването на проблема.

Google свърза Gemini с интернет, така че отговорите му да се основават както на данните от обучението, така и на информацията, която е намерил в мрежата. OpenAI направи същото за ChatGPT. Компанията работи за усъвършенстване на инструмента си с помощта на обратна връзка от човешки тестери, като използва техника, наречена обучение с подсилване.

OpenAI също така предложи нова стратегия за възнаграждаване на моделите за всяка отделна, правилна стъпка на разсъждение при достигане до отговор. Този подход се нарича надзор на процеса и според компанията може да доведе до по-акуратен изкуствен интелект. Но някои експерти се съмняват, че това е ефективен начин за борба с фалшификациите.

Рийсбек от Северозападния университет заяви, че генеративните модели на AI "винаги халюцинират". Просто поради самото си естество те винаги "измислят неща". Така че премахването на възможността халюцинациите някога да генерират невярна информация може да бъде трудно, ако не и невъзможно. Но има някои стъпки, които както компаниите, така и потребителите могат да предприемат, за да им противодействат и да ограничат вредата от тях.

Изкуственият интелект е толкова добър, колкото са добри данните, с които се захранва. Не бихте очаквали от човек да даде верен правен или медицински съвет, без преди това да знае достатъчно за правото и медицината - същото важи и за AI. Компаниите могат да обосноват своите генеративни модели със специфични за индустриите данни, като подобрят разбирането му, така че да може да се създават отговори въз основа на контекста, а не просто измислици.

Проверката е висша форма на доверие. Дори и при наличието на тези системи и механизми за контрол, в крайна сметка потребителят трябва да провери отговорите, тъй като това е най-сигурният начин за откриване на халюцинации. Така че независимо дали някой използва AI за писане на код, провеждане на изследвания или изготвяне на имейл, той винаги трябва да преглежда генерираното съдържание, преди да го използва или сподели.