Романтична разходка до… никъде. Защо не бива да разчитате на AI, когато планирате пътуване
Когато алгоритмите започнат да съчиняват каньони, върхове и дори нова „Айфелова кула“ в Пекин, туристическите мечти лесно могат да се превърнат в опасни заблуди
&format=webp)
Все по-често туристите тръгват на пътувания, вдъхновени от предложения, които изкуственият интелект генерира за тях – само за да стигнат до извода, че дестинацията, към която са се запътили, изобщо не съществува.
От нереалната „Айфелова кула“ в Пекин до „Свещения каньон на Умантай“ в Перу, халюцинациите на чатботове като ChatGPT, Google Gemini и Microsoft Copilot вече поставят реални рискове пред пътуващите.
Мигел Анхел Гонгора Меса, основател на Evolution Treks Peru, разказва за двама туристи, които планирали самостоятелен преход в Андите до „Свещения каньон на Умантай“.
„Показаха ми скрийншот, пълен с уверени описания и впечатляващи прилагателни, но нищо от това не беше вярно, защото такова място не съществува в действителност“, обяснява той. Вместо това пътешествениците заплатили 160 долара, за да стигнат до отдалечен път край Молепата – без реална дестинация.
„Такъв тип дезинформация е опасен в Перу“, предупреждава Гонгора Меса. „Височината, климатичните промени и достъпността на маршрутите трябва да бъдат внимателно планирани. Ако на сляпо се доверите на програма, която бърка снимки и наименувания, може да се окажете на 4000 м височина без кислород или сигнал на телефона.“
С подобна ситуация се сблъскват и Дана Яо и съпругът ѝ в Япония. ChatGPT им препоръчва романтична разходка до връх Мисен, която завършва със спускане с въжена линия в 17:30 ч. „В действителност обаче въжената линия вече беше затворила, а ние се озовахме заклещени на върха“, разказва Яо пред BBC.
Подобни истории се срещат все по-често. BBC съобщава през 2024 г., че платформата Layla е „измислила“ Айфеловата кула в Пекин и е предложила невъзможен маршрут през Северна Италия.
Според проучвания 37% от потребителите на изкуствен интелект в туризма твърдят, че системата не предоставя достатъчно информация, а 33% – че са получавали откровено невярна.
„Алгоритмите не правят разлика между туристически съвети, упътвания или рецепти. Те просто подреждат думи по начин, че да звучат реалистично“, обяснява Рейид Гани, професор по машинно обучение в Carnegie Mellon University. Това явление експертите наричат „халюцинации“.
В случая с „каньона на Умантай“ системата вероятно е комбинирала популярни имена от региона. Анализът на огромни масиви текст обаче не гарантира разбиране на физическата реалност. Така една „лека разходка на 4000 м“ може да се окаже истинско алпийско предизвикателство.
Но тук не става въпрос само за пътувания. Fast Company разказва за двойка, която търсила атрактивен лифт в Малайзия, видян в TikTok – оказал се напълно измислен от AI.
Подобни „редакции“ вече засягат и видеосъдържанието: YouTube експериментира с автоматични промени във визията на хора във видеа, а Netflix предизвика възмущение, след като „реставрирани“ сериали от 80-те и 90-те години показаха странни изкривявания в лицата на актьорите.
Клиничният психотерапевт Хавиер Лабурт предупреждава, че подобни грешки могат да променят самата идея за пътуването като средство за личен опит, културно опознаване и изграждане на емпатия. „Когато AI си измисля разкази за места още преди да сте тръгнали, това със сигурност влияе на преживяването“, казва той.
ЕС и САЩ вече обсъждат възможни регулации – включително въвеждане на водни знаци и обозначаване за AI-създадено съдържание. Но, както посочва Гани, проблемът остава: „Митигиране е по-надеждно решение от превенция. Трудно е да предотвратиш халюцинациите в реално време.“
Google и други технологични лидери признават, че халюцинациите вероятно са „вродена характеристика“ на големите езикови модели. А това означава, че ако използвате AI, за да планирате пътуванията си, е задължително да проверявате всичко – особено ако ви звучи прекалено хубаво, за да е истина.