Трябва ли да бъдем любезни с изкуствения интелект?
Съветите за общуване с чатботове варират от проява на учтивост до влизане в ролята на герои от „Стар Трек“ и често са напълно безполезни. Някои обаче наистина дават резултат
,fit(1001:538)&format=webp)
Когато група изследователи решили да проверят дали „позитивното мислене“ прави чатботовете с изкуствен интелект по-точни, резултатите се оказали изненадващи. Докато задавали въпроси на различни чатботове, те ги наричали „умни“, насърчавали ги да мислят внимателно и дори завършвали запитванията си с „Това ще бъде забавно!“. Нищо от това не водело до последователна разлика, но една техника се отличила – когато накарали изкуствения интелект да се преструва, че е в „Стар Трек“, той започнал да се справя по-добре с базова математика.
Хората използват всевъзможни странни стратегии, за да получат по-добри отговори от големите езикови модели (LLM) – технологията зад инструменти като ChatGPT. Някои са убедени, че AI работи по-добре, ако бъде заплашван. Други смятат, че е по-сговорчив, ако сте учтиви, а трети го карат да играе ролята на експерт по дадена тема. Списъкът е дълъг. Това е част от митологията около т.нар. „prompt engineering“ или „context engineering“ – различни начини за формулиране на инструкциите така, че AI да дава по-добри резултати. Проблемът е, че според експертите голяма част от общоприетите „правила“ просто не работят. В някои случаи дори могат да бъдат опасни. Начинът, по който говорите с изкуствения интелект, обаче има значение – и някои техники действително помагат, пише BBC.
„Много хора си мислят, че съществува магически набор от думи, които ще накарат модела да реши даден проблем“, казва Джулс Уайт, професор по компютърни науки във Vanderbilt University в САЩ, който изучава генеративния изкуствен интелект. „Но не става дума за избора на думи, а за това как по същество изразявате какво искате да постигнете.“
Добри обноски?
През 2025 г. потребител в X публикува пост с въпрос: „Чудя се колко пари е загубила OpenAI за сметки за електричество заради хората, които казват „моля“ и „благодаря“ на моделите им.“ Главният изпълнителен директор на OpenAI Сам Алтман отговори: „Десетки милиони долари, похарчени с удоволствие. Никога не се знае.“
Повечето хора приеха последната реплика като закачка с идеята за евентуален AI апокалипсис, макар че е трудно да се прецени колко сериозно трябва да се възприема тази сума. Но въпросът за учтивостта е и практичен.
Някои изследвания показват, че ако сте мили с изкуствения интелект, получавате по-добри отговори. Други обаче стигат до обратното заключение.
Големите езикови модели работят, като разделят думите ви на малки части, наречени „токени“, които след това анализират статистически, за да генерират подходящ отговор. Това означава, че абсолютно всичко – от избора на думи до една допълнителна запетая – може да повлияе на резултата. Проблемът е, че това е почти невъзможно за предвиждане. Проведени са множество изследвания, търсещи закономерности в малки промени на инструкциите, но резултатите често са противоречиви и неубедителни.
Например изследване от 2024 г. установява, че езиковите модели дават по-точни отговори, когато бъдат помолени учтиво, вместо просто да получават команди. Още по-странно е, че има и културни различия. В сравнение с китайския и английския език, чатботовете на японски всъщност се справят малко по-зле, ако се използва прекалено учтив тон.
Друго проучване пък разкрива, че по-стара версия на ChatGPT всъщност е била по-точна, когато е била обиждана. Като цяло обаче няма достатъчно данни, за да се правят категорични заключения. Освен това компаниите постоянно обновяват моделите си, което бързо прави наличните изследвания остарели.
Според експертите моделите са се подобрили драстично само за няколко години, което прави техники като ласкателства, прекалена учтивост, обиди или заплахи загуба на време, ако целта ви е по-голяма точност.
„Тогава всичко беше на случаен принцип“, посочва пред BBC Рик Батъл, инженер по машинно обучение в Broadcom и съавтор на изследването със „Стар Трек“. Макар проучването да е от 2024 г., нещата вече са различни. Днес новите модели в продукти като ChatGPT, Gemini или Claude са много по-добри в разбирането на най-важната част от инструкцията. Малките езикови трикове вероятно няма да доведат до последователни резултати, от които можете да се възползвате.
Изводът е донякъде неудобен. Компаниите създават AI така, че да се държи като човек, затова понякога изглежда сякаш има настроение или личност, които можете да управлявате. Но това е илюзия. Изкуственият интелект не е живо същество – той просто имитира човешко поведение. В този смисъл за по-добри и точни отговори чатботовете трябва да се третират като инструмент, а не като човек.
Изкуственият интелект е свързан със сериозни предизвикателства — от етични дилеми до екологично въздействие, което кара някои потребители изцяло да избягват технологията. Въпреки това, при работа с езикови модели е целесъобразно да се прилагат подходи за по-бързо и ефикасно постигане на резултати. Оптимизирането на взаимодействието с тези системи може да се постигне чрез няколко принципа:
Искайте повече варианти
„Първото нещо, което казвам на хората, е да не искат един отговор, а три или пет“, обяснява Уайт. Ако например имате нужда от помощ с писане на текст, помолете AI да предложи няколко различни версии. „Това кара човека отново да се ангажира и да помисли какво му харесва и защо.“
Давайте примери
Предоставяйте пример, когато е възможно. „Хората често молят AI да напише имейл и после се разочароват, че не звучи като тях“, отбелязва Уайт. Вместо да давате списък с инструкции, по-добре е да кажете: „Ето 10 имейла, които съм писал – използвай моя стил.“
Нека ви интервюира
„Ако искате да напишете автобиографията си, накарайте изкуствения интелект да ви задава въпроси“, съветва Уайт. Така моделът може да се адаптира към отговорите ви.
Внимавайте с ролевите игри
„Имаше идея, че ако кажеш на AI, че е професор по математика, той ще бъде по-точен“, казва Сандър Шулхоф, предприемач и изследовател. Но когато търсите конкретен факт или правилен отговор, ролевите игри могат да намалят точността.
„Това дори може да е опасно“, добавя Батъл. „По този начин насърчавате халюцинациите, защото му казвате, че е експерт и трябва да се доверява на вътрешните си знания.“
Казано по-просто – това може да направи AI прекалено самоуверен. За отворени задачи без един правилен отговор обаче ролевите игри са полезни.
„Моля“ и „благодаря“
Според проучване на Pew Research Center от 2019 г. повече от половината американци използват „моля“, когато говорят със своите умни устройства. Тази тенденция продължава – изследване от 2025 г. показва, че 70% от хората са учтиви към изкуствения интелект. Повечето казват, че просто смятат това за правилно, а 12% го правят, за да се предпазят в случай на „роботско въстание“.
Учтивостта вероятно няма да ви спаси от ядосани роботи или да направи модела по-точен, но има други причини да се придържате към нея.
„По-важното е, че „моля“ и „благодаря“ могат да ви карат да се чувствате по-комфортно, когато използвате AI“, коментира Шулхоф. „Не подобрява работата на модела, но ако ви помага да го използвате по-лесно, има смисъл.“
Има и нещо свързано с човешката природа. Философът Имануел Кант твърди, че една от причините да не бъдем жестоки към животните е, че това вреди и на нас самите – прави ни по-груби хора. Не можете да нараните чувствата на изкуствения интелект, защото той няма такива, но може би все пак е добре да бъдете мили. Това е навик, който може да помогне и в други аспекти на живота ви.
,fit(334:224)&format=webp)
&format=webp)
&format=webp)
)
&format=webp)
&format=webp)
,fit(334:224)&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)