С над 4000 споделяния, 20 000 коментара и 100 000 реакции във Facebook снимката на възрастна жена, седнала зад домашно приготвената торта за 122-ия си рожден ден, стана безспорен хит в социалните мрежи. „Украсявам торти от петгодишна и нямам търпение моето пекарско пътешествие да се разрасне“, гласи текстът под кадъра.

Снимката несъмнено в фалшива. Ако странно изглеждащите свещи – една от които сякаш се носи във въздуха, без да е прикрепена към нищо, или необичайните аморфни петна върху тортата не издават нищо, то фактът, че „рожденичката“ би трябвало да е най-възрастният човек в света – с почти 5 години преднина пред настоящия рекордьор, би трябвало да задействат червената лампа на потребителите.

С усъвършенстването на генеративния AI дните, когато трябваше да търсим предупредителни знаци, за да разпознаем фалшификатите, почти отминаха и това създава надпревара с времето – можем ли да разработим други начини за откриване на изкуствено създадени изображения, преди те да станат неразличими от реалността, пита британският вестник Guardian.

„Времето, в което все още можем да откриваме фалшификатите, изтича“, смята Майк Спиърс от консултантската компания за изкуствен интелект Faculty. Той ръководи работата на организацията по противодействие на дезинформацията. „Моделите се развиват с темпове, които са, ами, невероятни от техническа гледна точка и доста тревожни“, допълва Спиърс.

„Съществуват всякакви ръчни техники за откриване на фалшиви изображения – от грешно изписани думи до необичайно гладка или набръчкана кожа. Ръцете са много показателни, а също и очите. Но дори сега процесът отнема много време и не може да бъде ускорен. А времето изтича – моделите стават все по-добри и по-добри“, казва още експертът.

От 2021 г. насам генераторът на изображения на OpenAI – Dall-E, е пуснал три версии, всяка от които е радикално по-способна от предишната. За същия период независимият конкурент Midjourney е пуснал шест, безплатният модел с отворен код Stable Diffusion е достигнал третата си версия, а Gemini на Google се е присъединил към надпреварата. AI технологиите се усъвършенстват и стават все по-лесни за употреба. Последната версия на Dall-E е вградена в ChatGPT и Bing, а Google предлага на потребителите свои собствени безплатни инструменти.

Технологичните компании вече реагират на нарастващия поток от AI-генерирани изображения и видеа. Coalition for Content Provenance and Authenticity, в която членуват BBC, Google, Microsoft и Sony, разработи стандарти за поставяне на водни знаци и етикети, а през февруари OpenAI обяви, че ще ги приеме за Dall-E 3. Изображенията, генерирани от инструмента, вече имат видима маркировка. Що се отнася до разпространението, Meta започна да добавя свои собствени етикети към AI-генерираното съдържание, и се зарече да премахва публикации, които не са маркирани.

Тези политики биха могли да помогнат за справяне с някои от най-често срещаните форми на дезинформация – като шеги или сатира, които се разпространяват извън първоначалния си контекст, но и да създадат фалшиво чувство за сигурност, казва Спиърс. „Ако обществеността свикне да вижда изображения, генерирани от изкуствен интелект, с воден знак, означава ли, че се доверява безрезервно на такива без воден знак?“

Това е проблем, тъй като етикетирането в никакъв случай не е универсално – и няма как да бъде. Големи компании като OpenAI могат да се съгласят да поставят воден знак на своите творения, но стартиращи компании като Midjourney нямат капацитета да отделят допълнително инженерно време за този проблем. За проектите с „отворен код“ – като Stable Diffusion, въвеждането на задължителен воден знак пък е невъзможно, тъй като винаги има вариант технологията просто да бъде открадната и копирана.

Освен това не е задължително наличието на воден знак да има желания ефект, казва Хенри Паркър, ръководител на отдела за правителствени въпроси в групата за проверка на факти Logically. Компанията използва както ръчни, така и автоматични методи за проверка на съдържанието, казва Паркър, но маркировката върви с ограничения . „Ако кажете на някого, че гледа дийпфейк видео, още преди още да го е гледал, социалната психология е толкова силна, че той все още ще се позовава на него, сякаш е факт. Така че единственото, което можем да направим, е да се запитаме как можем да намалим времето на циркулация на това съдържание“, допълва той.

Рано или късно ще се нуждаем от автоматично откриване и премахване на AI-генерирано съдържание, но това е трудно, казва Паркър. „От около 5 години работим в тази насока и сме постигнали около 70% точност“, признава той. В краткосрочен план става въпрос за надпревара между инструментите за засичане и за генериране на фалшификати, но дори създателите на изображения да нямат нечисти намерения, те ще искат да надхитрят детекторите, тъй като крайната им цел е да създават съдържание, толкова близко до реалността, колкото е една снимка.

Според Logically отговорът не е в самото изображение, а „около“ него. „Как всъщност разглеждате поведението на дезинформаторите“, пита Паркър. Това означава да следите разговорите в мрежата, за да засечете злонамерените лица още в етапа на планиране в сайтове като 4chan и Reddit, както и поведението на рояците съмнителни акаунти, които разпространяват фалшификата. Дори тогава обаче проблемът с фалшиво позитивните резултати е труден за преодоляване. „Какво наблюдавам – руска пропагандна кампания или група фенове на Тейлър Суифт, които обменят информация за предстоящи концерти?“

Други са по-оптимистично настроени. Бен Колман, главен изпълнителен директор на стартъпа Reality Defender, смята, че винаги ще има възможност за откриване на AI-генерирани изображения, дори ако решението е съдържанието просто да бъде маркирано като „потенциално фалшиво“. Признаците могат да бъдат всякакви – от „филтър, показващ твърде голяма гладкост“ до – при видеосъдържанието, невъзможност за предаване на едва доловимото зачервяване, характерно за всеки, когато сърцето изпомпва свежа кръв към лицето.

„Фалшификатите ще продължават да се развиват, но автентичните снимки и видеа няма да се променят“, казва Колман и допълва: „Вярваме, че ще се доближим до един универсално приложим модел.“

Разбира се, технологиите са само част от решението. Ако хората наистина вярват, че снимка на 122-годишна жена с торта, която сама е изпекла, е истинска, тогава няма да са необходими най-съвременни AI генератори на изображения, за да ги накарат да повярват в други, по-вредни неща. Но и това е някакво начало.