Ако си мислите, че можете да различите изображения, генерирани от изкуствен интелект - от реални картини, има вероятност да грешите.

Става все по-трудно да се определи дали дадено изображение е генерирано от изкуствен интелект или е истинско. Това откриват авторите на проучване от Университета на Ватерло при провеждането на новото си проучване.

Експериментът, който е публикуван в списание Advances in Computer Graphics, дава на 260 участници 20 немаркирани снимки: 10 от тях са били истински хора, получени от търсения в Google, а другите 10 от програмите за изкуствен интелект Stable Diffusion и DALL-E. Това, което изненадало изследователите, е че участниците се затруднили много повече от очакваното при определянето на това дали образ на човек е реален, или не.

Респондентите били помолени да определят дали изображенията са реални, но те успели да го направят правилно само в 61% от случаите. Изследователите са очаквали този процент да бъде много по-висок - около 85%.

Андрея Покол, водещ автор на проучването и докторант по компютърни науки в Университета на Ватерло отбелязва, че хората са били инструктирани да не бързат при разглеждане на снимките. В допълнение към това им е казано да обръщат голямо внимание на детайли като пръсти и други области, в които често виждаме, че изкуственият интелект се проваля.

"Хората не са толкова умели в правенето на разлика, колкото си мислят", казва Покол. Тя също така добавя, че те не отделят достатъчно време за оценка на изображенията, на които попадат в социалните медии, а по-скоро ги поглеждат и мигновено продължават напред.

"Хората, които просто търчат насам-натам или нямат време, няма да доловят тези сигнали", посочва тя.

Покол се спря и на факта, че изкуственият интелект е станал много по-реалистичен само през последните няколко години (нейното проучване е започнало в края на 2022 г.).

"Дезинформацията не е нещо ново, но инструментите за нея непрекъснато се променят и развиват. Може да се стигне до момент, в който хората, независимо колко обучени ще бъдат, все още ще се затрудняват да различават истинските изображения от фалшификатите. Ето защо трябва да разработим инструменти за идентифициране и противодействие. Това е като нова надпревара във въоръжаването с изкуствен интелект."

Когато става въпрос за политическата сфера, реалистичните фалшиви изображения биха могли да имат влияние върху предстоящите президентски избори, посочва Fast Company. Пример за това се случи, когато поддръжниците на Тръмп създадоха десетки deepfake картини, изобразяващи чернокожи хора, подкрепящи бившия президент.

Според нов доклад, публикуван в сряда от Center for Countering Digital Hate (Център за борба с дигиталната омраза), генераторите могат лесно да се използват за създаване на подвеждащи изображения за изборите. "Въпреки че тези инструменти полагат известни усилия за модериране на съдържанието, съществуващите защити са неадекватни", пише в доклада на групата. "С лесния достъп и минималните бариери за ползване, осигурени от тези платформи, на практика всеки може да генерира и разпространява предизборна дезинформация."

Ясно е, че компаниите за изкуствен интелект все още имат много работа по отношение на дълбоките фалшификати и това колко лесно може да се разпространи дезинформацията - защото независимо колко внимателно разглеждаме изображенията, може би не винаги сме в състояние да различим кое е истинско.