MIT представи иновативен софтуер срещу визуални AI манипулации
Dall-E и Stable Diffusion бяха само началото. С разрастването на системите за генеративен изкуствен интелект и усилията на компаниите да разграничат своите платформи от тези на конкурентите си, чатботовете в интернет придобиват все по-усъвършенствани възможности за редактиране и създаване на изображения, като водещи са компании като Shutterstock и Adobe.
Но заедно с тези нови възможности на изкуствения интелект, пише Еngadget, се появяват и познатите капани като неразрешеното манипулиране или направо кражба на съществуващи онлайн произведения на изкуството и изображения.
Техниките за интеграция на водни знаци могат да помогнат за намаляване на ефектите от второто, а нова технология, наречена PhotoGuard и разработена от MIT CSAIL, може да помогне за предотвратяване на първото.
Какво говори AI пухеното яке на папа Франциск за бъдещето на модатаДрастичното отклонение от типичните мантии, носени в папския дом, предизвика порой от въпроси онлайн
PhotoGuard работи, като променя избрани пиксели в изображението така, че да наруши способността на изкуствения интелект да разбере какво представлява то. Тези "пертурбации", както ги нарича изследователският екип, са невидими за човешкото око, но лесно четими от машините.
Методът за въвеждане на тези промени е насочен към латентното представяне на целевото изображение от алгоритмичния модел - сложна математика, която описва позицията и цвета на всеки пиксел в изображението, като по същество пречи на AI да разбере какво гледа.
По-напредналият и изчислително интензивен метод пък маскира обектите като различно изображение “в очите на AI”. Той променя представяното изображение - то прилича на оригинала, но на практика всички редакции, които AI се опитва да направи върху тези "имунизирани" варианти, не засягат оригинала. Това на свой ред води до нереалистично изглеждащо генерирано изображение.
Художници обвиниха изкуствен интелект в плагиатствоПриложението Lensa създава автопортрети и става все по-популярно в социалните мрежи
“Нашият енкодер лъже AI модела, че входното изображение (което трябва да се редактира) е някакво друго (напр. сиво платно)", обяснява докторантът от MIT и водещ автор на проекта Хади Салман пред Engadget. “Технологията е безотказна”.
"Съвместните усилия на разработчици на модели, платформи за социални медии и създатели на политики може да бъде надеждна защита срещу неоторизираното манипулиране на изображения. Работата по този неотложен проблем е от първостепенно значение днес", категоричен е още той. "И макар да се радвам, че мога да допринеса за това решение, е необходима още много работа, за да се направи тази защита практически използваема. Компаниите, които разработват тези AI модели, трябва да инвестират в проектирането на надеждни имунни системи срещу възможните заплахи, породени от тях."