Анатомия на дълбокия фейк: Как се създават събития, които не са се случвали
Представете си, че е октомври 2024 г.
Само седмица преди изборите за президент на САЩ на 5 ноември, видеозапис разкрива тайна среща между Джо Байдън и Володимир Зеленски.
Американският и украинският президент се договарят незабавно да инициират присъединяването на Украйна към НАТО по силата на "специален протокол за извънредно членство" и да се подготвят за удар с ядрено оръжие срещу Русия.
Светът се оказва на прага на Армагедон.
Какво следва?
Журналистите ще впрегнат всичките си усилия да докажат, че такъв протокол не съществува.
По-внимателните потребители на социалните мрежи ще забележат странни моменти в кадрите, наподобяващи видео игра.
По-лековерните ще изпаднат в паника.
Когато настъпи денят на изборите, гласовете на всички ще бъдат повлияни от въпросното видео, независимо дали си дават сметка или не, че са манипулирани от дийпфейк – дълбоко фалшива ситуация, която никога не се е случвала.
Ситуационните фейкове са следващия етап на технологиите, които имат силата да преобръщат възприятията на аудиторията за реалността, обяснява в материал по темата Fast Company.
Учени от Технологичния институт в Рочестър, Университета на Мисисипи и Държавния университет в Мичиган създават проекта DeFake, в който проучват как се създават ситуационните фалшификати и какви мерки могат да предприемат гражданите, за да се защитят от тях.
Дълбокият фалшификат се създава, когато някой използва инструмент за изкуствен интелект, за да манипулира или генерира лице, глас или - с появата на големи езикови модели като ChatGPT, разговорен език. Те могат да се комбинират, за да се образуват "дълбоки фалшификати".
Основната идея и технология на ситуационния фейк са същите като при всеки друг фейк, но с по-смела амбиция: да се манипулира реално събитие или да се измисли такова.
Примери за това са изображенията на ареста на Доналд Тръмп с белезници и прегръдката му с Антъни Фаучи, като нито едно от двете не се е случило. Снимката на прегръдката беше популяризирана от акаунт в Twitter, свързан с президентската кампания на съперника на Тръмп Рон ДеСантис. Нападателна реклама, насочена срещу кампанията на Джо Байдън през 2024 г., беше публикувана от Националния комитет на Републиканската партия, направена изцяло с изкуствен интелект.
В проекта DeFake изследванията установяват, че дълбоките фалшификати, включително ситуациите, обикновено се създават чрез някаква комбинация на една медия с друга; използване на видеоклип за анимиране на изображение или промяна на друг видеоклип, наречено кукловодство; предизвикване на съществуването на медия, обикновено с помощта на генеративен AI; или някаква комбинация от тези техники.
Много от ситуационните дълбоки фалшификати се правят с невинни цели. Например списание Infinite Odyssey произвежда фалшиви кадри от филми, които никога не са били произведени или не биха могли да съществуват.
Но дори и невинните дълбоки фалшификати дават повод за размисъл, както в случая с почти правдоподобните фалшиви снимки, изобразяващи кацането на Аполо на Луната като филмова продукция.
Сега се поставете на мястото на човек, който се опитва да повлияе на предстоящите избори. Какви са възможните ситуации, които бихте искали да създадете?
Като начало, ще е важно дали искате да наклоните вота към или от определен резултат. Може би бихте изобразили кандидат, който действа геройски, като издърпва пешеходец от пътя на хвърчаща кола или, обратното, който прави нещо обидно или престъпно.
Ключово значение би имала целевата аудитория.
Вместо да се стремите към общия електорат или партийната база, може да се насочите към любителите на конспиративни теории в ключови избирателни райони.
Бихте могли да представите кандидата или членовете на неговото семейство като участници в сатанински ритуал, например, а защо не в тайна среща с извънземно.
Ако имате амбицията и възможностите за това, можете дори да се опитате да фалшифицирате самите избори.
Миналия месец руски телевизионни и радиостанции са хакнати и започват да излъчват заповед за пълна военна мобилизация от deepfake на Владимир Путин.
Макар че това би било по-трудно да се направи на избори в САЩ, по принцип всяка новинарска служба може да бъде хакната, за да излъчи дълбокофалшиви новини, в които водещите да обявяват грешни резултати или кандидат да се признае за победен.
Съществуват различни технологични и психологически начини за откриване и защита от дълбоки фалшификации.
От технологична гледна точка всички фалшификати съдържат някои доказателства за истинската си природа. Някои могат да бъдат забелязани с просто око - например прекалено гладка кожа, странно осветление или архитектура; докато други могат да бъдат открити само от изкуствен интелект, който ловува дълбоки фалшификати.
Детектор на проекта DeFake използва изкуствен интелект за улавяне на признаците на дълбоките фалшификати и се опитва да го подготви навреме за изборите в САЩ през 2024 г.
Но дори и да не може да бъде внедрен достатъчно мощен детектор за дълбоки фалшификации до деня на вота, има психологически инструменти, които избирателите могат да използват, за да разпознаят дълбоките фалшификации: фонови познания, любопитство и здравословен скептицизъм, допълват от Fast Company.
Ако се сблъскате с медийно съдържание за човек, място или събитие, което ви се струва нехарактерно, доверете се на предварителните си познания.
Например в неотдавнашна фалшификация на пожар в Пентагона показаната сграда изглежда по-скоро квадратна, отколкото петоъгълна, което може да е предупреждение.
Никога не се притеснявайте да научите повече от надеждни източници, като проверени от фактите новинарски репортажи, рецензирани академични статии или интервюта с утвърдени експерти.
Освен това имайте предвид, че дълбоките фалшификати могат да се използват, за да манипулират точно това, в което сте склонни да вярвате за даден човек, място или събитие. Един от най-добрите начини да се справите с това е просто да сте наясно с предразсъдъците си и да се отнасяте предпазливо към всяко медийно съдържание, което изглежда ги потвърждава.
Дори и да стане възможно създаването на перфектни дълбоки фалшификати, достоверността вероятно ще остане тяхната ахилесова пета. Така че, със или без технологично решение, гражданите все още имат силата да защитят ключови събития като президентските избори от влиянието на измислената реалност.