OpenAI има инструмент, разкриващ дали учащите мамят с ChatGPT, но не го пуска
Причина са противоречията в компанията относно технологията, разпознаваща текст, написан от изкуствен интелект, с 99,9% точност. Те са свързани със заплаха от спад на потребителите
OpenAI има метод за надеждно откриване, когато някой използва ChatGPT, за да напише есе или изследователска работа. Компанията обаче не го лансира въпреки широко разпространените опасения относно измами от страна на ученици и студенти, които използват изкуствен интелект за курсовите си работи и други задачи.
По проекта се работи от две години, готов е за пускане от около 12 месеца, според източници на The Wall Street Journal и вътрешни документи, разгледани от изданието. „Става въпрос само за натискане на един бутон“, казва един от източниците.
Опитвайки се да решат какво да правят, служителите на OpenAI се колебаят между заявения ангажимент на стартъпа за прозрачност и желанието им да привлекат и задържат потребители. Проучване, проведено от компанията сред лоялни потребители на ChatGPT, установява, че почти една трета от тях ще се оттеглят, ако има налична технология против измама.
Говорител на OpenAI казва, че в компанията има притеснения, че инструментът може да засегне групи като неговорещите английски език. „Методът за текстов воден знак, който разработваме, е технически обещаващ, но крие сериозни рискове, които претегляме, докато проучваме алтернативи“, казва говорителят, цитиран от WSJ.
Служителите, които подкрепят пускането на инструмента, включително тези, които са помогнали за разработването му, смятат, че тези аргументи избедняват на фона на ползите, които би имало от тази технология. Източниците на изданието добавят, че главният изпълнителен директор на OpenAI Сам Алтман е насърчил проекта, но не е настоявал той да бъде пуснат.
Генеративният AI може да създаде цяло есе или изследователска статия за секунди, въз основа на една подкана, безплатно. Учители и университетски преподаватели казват, че отчаяно търсят помощ, за да се справят със злоупотребата с него.
Скорошно проучване на Центъра за демокрация и технологии, организация с нестопанска цел, установява, че 59% от учителите в средните и гимназиалните училища в САЩ са сигурни, че някои ученици са използвали AI в подготовката на домашните си, което е със 17 пункта повече от предходната учебна година.
ChatGPT се захранва от AI система, която предвижда коя дума или фрагмент от дума, известен като токен, трябва да дойде след предходната в изречението. Инструментът против измама, който се обсъжда в OpenAI, ще промени леко начина, по който се избират токените. Тези промени ще създадат модел, наречен „воден знак“.
Водните знаци биха били незабележими за човешкото око, но да бъдат открити с технологията срещу измами на OpenAI. Детекторът предоставя резултат за това колко вероятно е целият документ или част от него да е написан от ChatGPT.
Водните знаци са 99,9% ефективни при новосъздаден от ChatGPT текст, според вътрешните документи, разгледани от WSJ.
Все пак служителите на OpenAI изразяват загриженост, че водните знаци могат да бъдат изтрити чрез прости техники - например Google да преведе текста на друг език и след това обратно или ChatGPT да добави емотикони към текста и след това да бъдат изтрити ръчно, казва служител на OpenAI, запознат с въпроса.
В компанията има широко съгласие, че определянето кой може да използва този детектор би било предизвикателство. Ако твърде малко хора го имат, инструментът няма да е полезен. Ако твърде много хора получат достъп, зложелатели могат да дешифрират техниката за воден знак на компанията.
Служителите на OpenAI са обсъдили предоставянето на детектора директно на преподаватели или на външни компании, които помагат на училищата да идентифицират написани от AI документи и плагиатствани работи.
Google също има инструмент за поставяне на водни знаци, който може да разпознава текст, генериран от неговия Gemini. Наречен SynthID, той е в бета тестване и не е широко достъпен.
OpenAI има инструмент за определяне дали дадено изображение е създадено с помощта на неговия генератор за текст към изображение, DALL-E 3, пуснат за тестване миналата пролет. Компанията е дала приоритет на аудио и визуалните водни знаци пред текста, тъй като вредите са по-значителни, особено в натоварената изборна година в САЩ, казва пред WSJ служител, запознат с въпроса.
През януари 2023 г. OpenAI пусна алгоритъм, предназначен да открива текст, написан от няколко AI модела, включително от неговия собствен. Той успя само в 26% от случаите и OpenAI го изтегли седем месеца по-късно.
Има и други инструменти, разработени от външни компании и изследователи за откриване на текст, създаден с AI. Много учители казват, че са ги използвали, но понякога не успяват да открият текст, написан от усъвършенствани големи езикови модели, или че детекторите могат да произведат фалшиви положителни резултати.
Някои учители насърчават учениците да използват изкуствен интелект, за да си помогнат при изследвания или други базисни задачи. Проблемът е, когато учениците имат приложение като ChatGPT, което върши цялата работа и те дори не знаят какво предават за проверка от учителя.
Дискусиите относно инструмента за водни знаци са започнали преди OpenAI да стартира ChatGPT през ноември 2022 г. и са били постоянна причина за напрежение, казват източниците на WSJ. Той е разработен от Скот Арънсън, професор по компютърни науки, който работи по безопасността в OpenAI, докато е в отпуск от Тексаския университет през последните две години.
В началото на 2023 г., един от съоснователите на OpenAI, Джон Шулман, очертава плюсовете и минусите на инструмента в споделен Google Doc. Тогава ръководителите на OpenAI решават, че ще потърсят информация от външни експерти, преди да предприемат допълнителни действия.
През следващата година и половина ръководителите на OpenAI многократно са обсъждали технологията и търсят нови данни, за да решат дали да я пуснат.
През април 2023 г. OpenAI анкетира потребители на ChatGPT и установява, че 69% вярват, че технологията за откриване на измами би довела до фалшиви обвинения в използването на AI. Близо 30% казват, че биха използвали ChatGPT по-малко, ако разполага с водни знаци, а конкурентен инструмент няма такива.
Сериозно вътрешно безпокойство е и това, че инструментът против измама може да навреди на качеството на писането на ChatGPT. OpenAI обаче е провел тест по-рано тази година, който установява, че водният знак не влошава производителността на ChatGPT, казват още източниците на WSJ.
В началото на юни старши служители и изследователи на OpenAI се срещат отново, за да обсъдят проекта. Групата се съгласява, че технологията за поставяне на водни знаци работи добре, но резултатите от потребителското проучване на ChatGPT от миналата година все още представляват заплаха. Служителите решават, че компанията трябва да разгледа други подходи, които биха били по-малко противоречиви за потребителите, показва още резюме от срещата, разгледано от WSJ.