С маска и слой "отрова": Тайните техники на художниците за защита от AI
Представителите на творческите индустрии могат да предприемат конкретни стъпки, за да предотвратят използването на работата им без тяхно знание
От началото на бума на генеративния изкуствен интелект художниците се притесняват, че ще загубят препитанието си заради него.
Има много примери за заместване на човешкия труд от компютърни програми. Съвсем наскоро Coca-Cola предизвика полемика, като създаде нова коледна реклама с помощта именно на генеративния изкуствен интелект.
Художници и писатели заведоха няколко съдебни дела срещу компании за изкуствен интелект, твърдейки, че техните произведения са били включени в бази данни за обучение на модели без съгласие или компенсация. Технологичните компании отговориха, че всичко, което е в публичния интернет, попада в обхвата на справедливото използване. Но ще минат години, докато се появи правно решение на проблема.
За съжаление гилдията не може да направи почти нищо, ако нейния труд е бил вкаран в набор от данни и използван в модел, който вече е на публично разположение. Представителите на творческите индустрии обаче могат да предприемат стъпки, за да предотвратят използването на работата им в бъдеще.
MIT Technology Review изброява четири начина за това.
„Маскирайте” стила си
Един от най-популярните начини, по които художниците се борят срещу кражбата на стила им, е като прилагат „маски“ върху изображенията си. Те защитават начинът им на рисуване от копиране.
Инструменти като Mist, Anti-DreamBooth и Glaze добавят малки промени в пикселите на изображението, които са невидими за човешкото око, така че ако и когато те бъдат взети, моделите за машинно обучение не могат да ги дешифрират правилно.
Mist и Anti-DreamBooth изискват известни умения за програмиране, но Glaze, разработена от изследователи в Чикагския университет, е по-прост за прилагане. Инструментът е безплатен и може да бъде изтеглен като приложение, или защитата да бъде приложена онлайн. Затова и той е най-популярният инструмент, изтеглен милиони пъти.
Но подобни защити никога не са безотказни и това, което работи днес, може да не работи утре. В областта на компютърната сигурност разбиването на защитите е стандартна практика сред изследователите, тъй като това помага на хората да открият слаби места и да направят системите по-безопасни. Използването на тези инструменти е пресметнат риск: След като нещо е качено онлайн, губите контрол над него и не можете да добавяте защити на изображенията със задна дата.
Помислете къде и как споделяте
Популярни сайтове за художествени профили като DeviantArt и Flickr се превърнаха в златни мини за компаниите за изкуствен интелект, които търсят данни за обучение. А когато споделяте публично изображения в платформи като Instagram, компанията майка Meta може да ги използва за изграждане на своите модели за неопределено време.
Един от начините да предотвратите извличането на данни е да не споделяте публично изображения онлайн или да направите профилите си в социалните мрежи лични. Но за много творци това просто не е опция, тъй като споделянето на работата им онлайн е основен начин за привличане на клиенти.
Струва си да обмислите възможността да споделяте работата си в Cara - нова платформа, създадена в отговор на реакциите срещу изкуствения интелект. Тя си сътрудничи с изследователите, стоящи зад Glaze, и планира да добави интеграции към инструментите за защита на изкуството на лабораторията. Тя автоматично имплементира тагове „NoAI“, които казват на онлайн скраперите да не изстъргват изображения от сайта. В момента се разчита на добрата воля на компаниите за изкуствен интелект да спазват заявените желания на художниците, но това е по-добре от нищо.
Откажете „остъргването”
Законите за защита на данните могат да ви помогнат да накарате технологичните компании да изключат данните ви от обучението на AI. Ако живеете някъде, където има такива закони, като например в Обединеното кралство или ЕС, можете да поискате от технологичните компании да се откажат от използването на данните ви за обучение на изкуствен интелект.
Сайтът Have I Been Trained, създаден от ръководената от художници компания Spawning AI, ви позволява да разберете дали вашите изображения са попаднали в популярни набори от данни за обучение на изкуствен интелект с отворен код. Организацията си е партнирала с две компании: Stability AI, която създаде Stable Diffusion, и Hugging Face, която насърчава отворения достъп до технологията.
Ако добавите изображенията си в регистъра Do Not Train на Spawning AI, тези компании са се съгласили да премахнат изображенията ви от своите набори от данни за обучение, преди да тренират нови модели. За съжаление, това отново зависи от добрата воля на компаниите за изкуствен интелект и не е стандарт за цялата индустрия.
Ако всичко останало се провали, добавете малко отрова
Изследователите от Чикагския университет, които са създали Glaze, са създали и Nightshade - инструмент, който ви позволява да добавяте невидим слой „отрова“ към изображенията си.
Подобно на Glaze, той добавя невидими промени в пикселите, но вместо просто да затрудни интерпретацията на изображенията от моделите с изкуствен интелект, той може да разруши бъдещите итерации на тези модели и да ги накара да се държат непредсказуемо.
Например изображенията на кучета могат да се превърнат в котки, а чантите - в тостери. Изследователите казват, че са необходими сравнително малко отровени образци, за да се окаже въздействие.
Можете да добавите Nightshade към своето изображение, като изтеглите приложението. В бъдеще екипът се надява да комбинира Glaze и Nightshade, но в момента двете защити трябва да се добавят поотделно.