AI-генерирани изображения на крайна бедност, деца и жертви на сексуално насилие заливат платформите за снимки. Въпросните изображения се използват все по-често от водещи неправителствени организации в областта на здравеопазването, твърдят глобални здравни специалисти. Те изразяват загриженост относно тази нова ера на „порнография на бедността“.

„Всички го използват“, казва пред Guardian Ноа Арнолд, който работи в Fairpicture – швейцарска организация, фокусирана върху насърчаването на етични изображения. „Някои активно използват изображения, създадени с изкуствен интелект, а за други, знаем, че поне експериментират с тях.“

Арсений Аленичев, изследовател в Института по тропическа медицина в Антверпен, който изучава производството на изображения в областта на глобалното здравеопазване, посочва: „Изображенията възпроизвеждат визуалната граматика на бедността – деца с празни чинии, напукана земя, стереотипни визуални елементи.“

Аленичев е събрал повече от 100 изображения на крайна бедност, генерирани от AI, които се използват от частни лица или неправителствени организации като част от кампании в социалните медии срещу глада или сексуалното насилие. Те показват преувеличени сцени, които затвърждават стереотипи – деца, сгушени в кална вода; африканско момиче в сватбена рокля, което плаче. В коментар, публикуван в четвъртък в Lancet Global Health, той твърди, че тези изображения са „порнография на бедността 2.0“.

Макар че е трудно да се измери разпространението на АI-изображенията, Аленичев и други смятат, че тяхното използване се увеличава, подтикнато от опасения относно правата и разходите. Арнолд пояснява, че съкращенията на финансирането за неправителствени организации от страна на САЩ са влошили положението.

„Съвсем ясно е, че различни организации започват да обмислят използването на синтетични изображения вместо реални фотографии, защото са евтини и не е нужно да се занимаваш със съгласие и други подобни неща“, допълва Аленичев.

Генерирани от изкуствен интелект изображения на крайна бедност се появяват десетки пъти в популярни платформи за снимки като Adobe Stock и Freepik при търсене на думата „бедност“, съобщава Guardian.  Много от тях имат описания като „Фотореалистично дете в бежански лагер“, „Азиатски деца плуват в река, пълна с отпадъци“ и „Кавказки бял доброволец предоставя медицинска консултация на млади чернокожи деца в африканско село“. Adobe продава лицензи за последните две снимки за около 60 лири.

Скрийншот на търсене на думата „бедност“ в Freepik

„Те са толкова расистки. Никога не бива да позволяват публикуването им, защото това са най-лошите стереотипи за Африка, Индия или други места“, подчертава Аленичев.

Хоакин Абела, главен изпълнителен директор на Freepik, коментира, че отговорността за използването на такива крайни изображения лежи върху потребителите, а не върху платформи като неговата. Той допълва, че AI снимките се генерират от глобалната общност потребители на платформата, които получават лицензионна такса, когато клиентите на Freepik закупят техни изображения.

По думите му компанията е опитала да ограничи предразсъдъците, открити в други части от фотоархива, като „внесе повече разнообразие“ и се стреми към баланс между половете в снимките на адвокати и изпълнителни директори, публикувани на сайта.

Но, според него, платформата му може да направи само толкова. „Това е като да се опитваш да изсушиш океана. Ние полагаме усилия, но в действителност, ако клиентите по целия свят търсят определени изображения, никой не може да промени това.“

В миналото водещи благотворителни организации са използвали изображения, генерирани от изкуствен интелект, като част от своите комуникационни стратегии за глобално здраве. През 2023 г. холандският клон на британската благотворителна организация Plan International пусна видео кампания срещу детските бракове, съдържаща AI изображения на момиче с посинено око, по-възрастен мъж и бременна тийнейджърка.

Миналата година ООН публикува в YouTube видео с генерирани от изкуствен интелект „възстановки“ на сексуално насилие по време на конфликти. В него е включено и AI-създадено свидетелство на жена от Бурунди, която описва как през 1993 г., по време на гражданската война, е била изнасилена от трима мъже и оставена да умре. Видеото е премахнато, след като Guardian търси коментар от организацията.

„Въпросното видео, създадено преди повече от година с помощта на бързо развиващ се инструмент, беше премахнато, тъй като преценихме, че представлява неправилна употреба на изкуствен интелект и може да застраши достоверността на информацията, смесвайки реални кадри с почти реалистично генерирано съдържание“, заяви говорител на мисията на ООН за поддържане на мира, цитиран от британската медия.

„Обединените нации остават непоколебими в ангажимента си да подкрепят жертвите на сексуално насилие, свързано с конфликти, включително чрез иновации и творчески подход.“

Арнолд отбелязва, че нарастващата употреба на изкуствено генерирани снимки идва след години на дебати в сектора за етичното представяне и достойното разказване на истории, свързани с бедност и насилие. „Смята се, че е по-лесно да се използват готови изображения, създадени от изкуствен интелект, защото не изискват съгласие – те не изобразяват реални хора.”

Кейт Кардол, консултант по комуникации в неправителствена организация, споделя, че подобни изображения я тревожат и ѝ напомнят за по-ранните дискусии относно „порнографията на бедността“ в сектора. „Натъжава ме, че борбата за по-етично представяне на хората, живеещи в бедност, вече се пренася и в сферата на нереалното.”

Добре известно е, че генеративните AI инструменти възпроизвеждат,  а понякога и преувеличават вече съществуващите обществени предразсъдъци. Разпространението на такива пристрастни изображения в глобалните здравни комуникации може допълнително да задълбочи проблема, категоричен е Аленичев. Според него тези изображения могат лесно да се разпространят онлайн и да бъдат използвани за обучение на следващото поколение AI модели – процес, който само засилва предразсъдъците.

Говорител на Plan International заяви, че от тази година организацията е приела насоки, които „не препоръчват използването на изкуствен интелект за изобразяване на отделни деца“. Той уточни, че кампанията от 2023 г. е използвала синтетични изображения с цел да защити личното пространство и достойнството на реални момичета.