Подменена реалност: Битката с фалшиви изображения от AI е в ключов етап
Изображение на експлозия в близост до Пентагона предизвика паника в социалните мрежи и за кратко срина фондовите борси миналия месец.
Няколко часа по-късно, властите опровергаха новината за взрив, като заявиха, че снимката носи всички белези на генерирана от изкуствен интелект, припомня историята CNN.
Според Джефри Макгрегър, главен изпълнителен директор на Truepic, случилото се "наистина е върхът на айсберга на това, което предстои".
По думите му "ще видим как в социалните медии ще започне да се появява много повече съдържание, генерирано от изкуствен интелект, а ние просто не сме подготвени".
Компанията на Макгрегър работи за решаването на този проблем.
Truepic предлага технология, която твърди, че удостоверява автентичността на изображения в момента на създаването им чрез своя Truepic Lens. Приложението улавя данни, включително дата, час, местоположение и устройство, използвано за създаване на изображението, и прилага цифров подпис, за да провери дали то е органично, или е манипулирано или генерирано от изкуствен интелект.
Truepic, която е подкрепена от Microsoft, е основана през 2015 г., години преди пускането на пазара на инструменти за генериране на изображения, задвижвани от AI, като Dall-E и Midjourney.
Сега Макгрегър казва, че продуктите на компанията са важни за "всеки, който взема решение въз основа на снимка" - от неправителствени организации до медийни компании и застрахователни фирми, които искат да потвърдят, че дадена претенция е легитимна.
Днес всичко може да се фалшифицира, обяснява Макгрегър.
"Знаейки, че генеративният изкуствен интелект е достигнал тази критична точка по отношение на качеството и достъпността, ние вече не може да разберем каква е реалността, когато сме онлайн."
Надпревара във въоръжаване
Технологични компании като Truepic работят за борба с онлайн дезинформацията от години, но появата на нов вид инструменти за изкуствен интелект, които генерират завладяващи изображения и писмени работи в отговор на задачи от потребителите, прави необходимостта от тези усилия още по-неотложна.
През последните месеци генерирано от изкуствен интелект изображение на папа Франциск в пухено яке стана вайръл в социалнтие медии, а генерирани от изкуствен интелект изображения на арестувания бивш президент Доналд Тръмп с белезници бяха широко споделяни малко преди да му бъде повдигнато обвинение.
Законодателните органи вече призоваха технологичните компании да се справят с проблема, подчертава CNN.
Вера Йоурова, заместник-председател на Европейската комисия, призова подписалите Кодекса на ЕС за дезинформация - списък, в който влизат Google, Meta, Microsoft и TikTok, да "въведат технология за разпознаване на такова съдържание и ясно да го обозначават пред потребителите".
Все по-голям брой стартъпи и големи технологични компании, включително някои, които внедряват в продуктите си технология за генеративен изкуствен интелект, се опитват да въведат стандарти и решения, които да помогнат на хората да определят дали дадено изображение или видеоклип е направено с помощта на изкуствен интелект.
Някои от тези компании носят гръмки имена като "Защитник на реалността", което говори за потенциалния залог на усилията: защита на самото ни усещане за това кое е реално и кое не.
Но тъй като технологиите за изкуствен интелект се развиват по-бързо, отколкото хората могат да се справят с тях, не е ясно дали тези технически решения ще бъдат в състояние да решат изцяло проблема.
Дори OpenAI, компанията, която стои зад Dall-E и ChatGPT, призна, че нейните собствени усилия за подпомагане на откриването на писмени знаци, генерирани от изкуствен интелект, а не на изображения, са "несъвършени" и предупреди, че трябва да бъдат приемани с известна доза скептичност.
"Става дума за смекчаване, а не за премахване", заяви пред CNN Хани Фарид, експерт по цифрова криминалистика и професор в Калифорнийския университет в Бъркли.
"Не смятам, че това е загубена кауза, но смятам, че има много неща, които трябва да се направят. Надеждата е да се стигне до момент, в който някой тийнейджър в мазето на родителите си не може да създаде изображение и да повлияе на изборите или да промени пазара с половин трилион долара", обяснява експертът.
Възможните решения
Компаниите прилагат два подхода за справяне с проблема.
Едната тактика се основава на разработване на програми за идентифициране на изображенията като генерирани от изкуствен интелект, след като те са създадени и споделени онлайн.
Другата се фокусира върху маркирането на изображението като истинско или генерирано от изкуствен интелект при създаването му с вид цифров подпис.
Върху първия вариант работят Reality Defender и Hive Moderation.
С техните платформи потребителите могат да качват съществуващи изображения, които да бъдат сканирани, и след това да получат незабавна разбивка с процент, показващ вероятността за това дали е истинско или генерирано от изкуствен интелект въз основа на голямо количество данни.
Компанията Reality Defender, която стартира преди генеративният изкуствен интелект да набере такава скорост и е част от конкурентния технологичен акселератор Y Combinator, твърди, че използва "патентована технология за дълбоко фалшифициране и генеративен отпечатък на съдържанието", за да открива видео, аудио и изображения, генерирани от AI.
В пример, предоставен от компанията, Reality Defender подчертава изображение на deepfake на Том Круз като 53% "подозрително", като казва на потребителя, че е открил доказателства, показващи, че лицето е изкривено, "често срещан артефакт при манипулиране на изображения".
Защитата на реалността може да се окаже доходоносен бизнес, ако въпросът се превърне в често срещан проблем за предприятията и физическите лица.
Hive Moderation заяви, че таксува 1,50 долара за всеки 1000 изображения, както и предлага "сделки с годишен договор" и отстъпка.
Realty Defender заяви, че цените й варират в зависимост от различни фактори, включително дали клиентът се нуждае от "някакви специфични фактори, изискващи експертния опит и съдействие на нашия екип".
"Рискът се удвоява всеки месец", заяви пред CNN Бен Колман, главен изпълнителен директор на Reality Defender.
"Всеки може да направи това. Не е необходимо да имате докторска степен по компютърни науки Не е нужно да знаете как да пишете софтуер. Всеки може да го направи само като напише в Google "генератор на фалшиви изображения".
Кевин Гуо, главен изпълнителен директор на Hive Moderation, описва това като "надпревара във въоръжаването".
"Трябва да продължим да разглеждаме всички нови начини, по които хората създават това съдържание, трябва да го разберем и да го добавим към нашия набор от данни, за да класифицираме след това бъдещето", каза Гуо пред CNN.
Превантивен подход
В рамките на различен превантивен подход някои по-големи технологични компании работят по интегрирането на своеобразен воден знак в изображенията, за да удостоверят, че медиите са истински или генерирани от изкуствен интелект още при създаването им.
Усилията досега се движеха главно от Коалицията за доказване и автентичност на съдържанието (Coalition for Content Provenance and Authenticity, C2PA), отбелязва CNN.
C2PA е основана през 2021 г. с цел да създаде технически стандарт, който удостоверява източника и историята на цифровите медии. Тя обединява усилията на ръководената от Adobe Инициатива за автентичност на съдържанието (CAI) и проекта Origin - инициатива, ръководена от Microsoft и BBC, която се фокусира върху борбата с дезинформацията в цифровите новини. Други компании, участващи в C2PA, са Truepic, Intel и Sony.
Въз основа на насоките на C2PA CAI предоставя на компаниите инструменти с отворен код за създаване на удостоверения за съдържание или метаданни, които съдържат информация за изображението. Това "позволява на създателите прозрачно да споделят подробностите за начина, по който са създали дадено изображение", според сайта на CAI. "По този начин крайният потребител може да получи достъп до контекста около това кой и как е променил изображението, след което сам да прецени доколко автентично е то."
"Смятаме, че това е много важна основополагаща мярка за противодействие на дезинформацията.", заявява пред CNN Анди Парсънс, старши директор в CAI.
Много компании вече интегрират стандарта C2PA и инструментите на CAI в своите приложения. Firefly на Adobe, инструмент за генериране на изображения с изкуствен интелект, който наскоро беше добавен към Photoshop, следва стандарта чрез функцията Content Credentials.
Microsoft също обяви, че изкуството с AI, създадено от Bing Image Creator и Microsoft Designer, ще носи криптографски подпис през следващите месеци.
Други технологични компании, като Google, изглежда, следват наръчник, който използва по малко и от двата подхода. През май Google обяви инструмент, наречен About this image, който предлага на потребителите да видят кога изображенията на нейния сайт, са били първоначално индексирани от Google, къде са се появили за първи път и къде другаде могат да бъдат намерени.
Технологичната компания също така обяви, че всяко изображение, генерирано от изкуствен интелект, създадено от Google, ще носи маркировка в оригиналния файл, за да "даде контекст", ако изображението бъде намерено на друг уебсайт или платформа.
Макар че технологичните компании се опитват да се справят с изображенията, генерирани от AI, експертите в тази област подчертават, че те ще трябва да работят и с правителствата, за да се справят с проблема.
Това не е една компания или едно правителство, или един човек от академичните среди. Трябва всички да участват, категорични са експертите.