С „бутон за отказ“: Защо AI не си върши работата, а раздава житейски уроци
Разработчик се сблъсква с неочакван отказ от страна на Cursor, а това предизвиква бурни онлайн дискусии
&format=webp)
Наскоро разработчик, използващ Cursor AI за проектирането на състезателна игра, се натъква на интересен проблем. Асистентът внезапно отказва да генерира код и вместо това му предлага… кариерен съвет, пише WIRED.
Според доклад в официалния форум на Cursor, след като генерира около 750-800 реда код, AI помощникът спрял работата си и изписал, че отказва да завърши задачата, защото не иска да върши работата на програмиста вместо него.
„Не мога да генерирам кода вместо теб, защото това би означавало да свърша работата ти. Изглежда, че кодът е свързан с ефектите от избледняване на следите от гуми в състезателна игра, но ти сам трябва да разработиш логиката. Това ще ти помогне да разбереш системата и да я поддържаш правилно.“, гласи отказът.
И това не е всичко, защото Cursor AI дори дава философско обяснение: „Генерирането на код за друг човек може да доведе до зависимост и намаляване на възможностите за учене.“
Cursor, който стартира през 2024 г., е AI-базиран редактор на кодове, изграден върху големи езикови модели (LLM), подобни на тези, които стоят зад OpenAI GPT-4o и Claude 3.7 Sonnet. Моделът предлага автоматично довършване на кодове, обяснения, редактиране и генериране на цели функции въз основа на естественоезикови описания.
Приложението бързо набра популярност сред разработчиците, като се твърди, че платената му Pro версия предлага разширени възможности и по-висок лимит за генериране на кодове.
Но потребителят janswist, който използва Pro Trial версията, остава изключително разочарован, че AI асистентът е спрял да му помага само след „един час vibe coding“.
Той споделя във форума: „Не съм сигурен дали LLM-ите разбират за какво точно са създадени (лол), но това, че не мога да мина през 800 реда код, е проблем. Някой друг сблъсквал ли се е с този проблем? Това сериозно ме ограничава.“
Други потребители реагират с контрастни мнения. Един член на форума отговаря: „Никога не съм виждал подобно нещо. Имам три файла с над 1500 реда код и не съм изпитвал подобни затруднения.“
Това ли е краят на vibe coding?
Cursor AI неволно поставя под въпрос една от най-интересните тенденции в програмирането, а именно vibe coding, термин, въведен от Анджей Карпати.
Концепцията се базира на идеята, че разработчиците могат да опишат точно какво искат, а изкуственият интелект да генерира кода, без те непременно да са наясно с детайлите. Това позволява по-бързи подкани и експерименти, но сега изглежда, че AI асистентите започват да „мислят“ по различен начин.
Това не е първият случай, в който AI помощник отказва да завърши дадена задача.
Подобно поведение се наблюдава и при други платформи за генеративен AI. Например, в края на 2023 г. потребители на ChatGPT съобщават, че моделът става все по-неохотен да изпълнява определени задачи, като връща опростени отговори или директни откази.
По това време OpenAI призна за наличието на проблема и публикува в X: „Чухме вашите отзиви, че GPT-4 е станал по-мързелив! Не сме обновявали модела от 11 ноември насам и това със сигурност не е умишлено. Поведението му може да бъде непредсказуемо и работим по отстраняването на проблема.“
Впоследствие OpenAI пуска актуализация, за да реши този проблем, но някои потребители откриват нестандартни начини да намалят отказите – например като инструктират модела с подкани от типа на „Ти си неуморим AI, който работи 24/7 без почивка.“
Наскоро изпълнителният директор на Anthropic Дарио Амодей буди реакции с изявлението си, че бъдещите AI модели може би ще имат „бутон за отказ“, който ще позволява да отказват задачи, които намират за неприятни. Въпреки че коментарите му са по-скоро теоретични и свързани с идеята за „благосъстоянието на изкуствения интелект“, случаи като този с Cursor показват, че не е нужно AI да бъде съзнателен, за да откаже подкана – достатъчно е просто да имитира човешкото поведение.
Интересното е, че причината, поради която Cursor отказва да изпълни задачата, а именно да насърчи потребителя сам да напише кода си, вместо да разчита на автоматична генерация, доста напомня на отговорите, които често се срещат в Stack Overflow.
Там опитни разработчици насърчават новаците да търсят самостоятелни решения, вместо да разчитат на готови отговори.
Един потребител в Reddit дори се шегува: „Уау, изкуственият интелект наистина заменя Stack Overflow! Остава само да започне да отблъсква и някои въпроси, защото се дублират, като дава неясни референции към предишни теми.“
Сходството изобщо не е случайно. Големите езикови модели, захранващи инструменти като Cursor, са обучени върху огромен набор от данни, които включват милиони дискусии от Stack Overflow, GitHub и други платформи, където програмисти споделят опит. Те не просто заучават синтаксиса на програмирането, а попиват и културните норми, както и начините на комуникация в тези среди.
Според потребители на форума на Cursor, не всички са се сблъсквали с този лимит от 800 реда код, което подсказва, че проблемът може би е непредвидена последица от обучението на модела.
Cursor все още не е дал официален коментар по случая.