Повече от 20 години Карл Фрогет работи като главен отговорник по информационната сигурност на Citibank, защитавайки инфраструктурата ѝ от все по-сложни кибератаки.

И докато престъпните измами – от нискотехнологични фалшификации на документи до елементарни фишинг имейли, отдавна тормозят банковия сектор и бизнеса, дийпфейк технологията, задвижвана от генеративен изкуствен интелект, е нещо невиждано. Поне досега.

"Много се притеснявам, че дълбоките фалшификати се използват в бизнеса", казва Фрогет, който към момента е главен оперативен директор на Deep Instinct, компания, използваща AI срещу киберпрестъпността.

Експерти от бранша казват, че заседателните зали и офис кабинетите бързо се превръщат в бойно поле, където киберпрестъпниците рутинно използват технологията на дълбоките фалшификати в опит да откраднат милиони от компаниите и в резултат на това, са добър полигон за тестване на усилията за откриване на AI измамници.

"Предизвикателството пред нас е, че генеративният AI е твърде реалистичен", казва Фрогет, цитиран от CNBC.

Инструментите за генериране на видео и аудио с изкуствен интелект се внедряват и подобряват бързо.

OpenAI пусна Sora през февруари, а в края на март представи аудио инструмент, наречен Voice Engine, който може реалистично да пресъздаде говоренето на човек от 15-секунден звуков фрагмент, но заяви, че той е само за малка група потребители предвид опасностите, които може да създаде.

Родом от Обединеното кралство, самият Фрогет използва регионален британски акцент като пример.

"Използвам нюанси и думи, които никога не сте чували, но генеративният AI консумира фрази, които са публично достояние. Сигурен съм, че някъде е публикувана моя реч, и тйа от нея генерира хиперреалистична гласова поща, електронна поща и видео", обяснява той.

Експертите цитират широко отразения случай от миналата година в Хонконг, при който служителка на международна корпорация беше подведена да преведе 25 млн. долара по фиктивна сметка, управлявана от киберпрестъпници.

Тя направи това след Zoom разговор със свои колеги, сред които дори финансовият директор на компанията, само че всички те били убедителни фалшификати. Случаят стана показателен за това, което предстои.

Дори когато OpenAI ограничава достъпа до аудио- и видеоинструменти, през последните месеци броят на уебсайтове в даркмрежата, продаващи фалшиви продукти на GPT, нарасна. "Лошите момчета току-що са се сдобили с тези инструменти. Те едва сега започват", казва Фрогет.

Необходим е само 30-секунден или по-кратък откъс от нечий разговор, за да се направи безупречен дийпейк, обяснява президентът на Check Point Software Рупал Холенбек.

Киберпрестъпниците вече могат да получат достъп до AI инструменти само за броени долари. "Това е по отношение на звука. Същото важи за видеото, а това променя играта", допълва още Холенбек.

Как да разпознаете фалшиво видео с изкуствен интелект

Има много начини да разпознаете имитатор на изкуствен интелект, някои от които са сравнително прости.

Като начало, ако имате съмнение относно достоверността на видеоклипа с дадено лице, помолете го да завърти главата си надясно или наляво, или да се обърне назад. Ако го приеме, но лицето му изведнъж изчезне от видеото, незабавно прекратете разговора, препоръчва Холенбек.

Крис Пиърсън, главен изпълнителен директор на Blackcloak, компания, специализирана в дигитална защита, смята, че е въпрос на време фалшификатите да имат 3D възможности. "Моделите се усъвършенстват толкова бързо, че тези трикове за разпознаване ще останат на заден план", казва той.

Съветва да не се страхувате да поискате старомодни доказателства за автентичност от типа "доказателство за живот", като например да поискате от лицето да покаже доклад на компанията или дори вестник. Ако те не могат да изпълнят исканията ви, това е червен флаг.

Добрите стари кодови думи и QR кодове

Старомодните кодови думи също са ефективни, но ги предавайте само чрез отделен носител и ги запазете в неписана форма.

Холенбек и Пиърсън препоръчват на ръководните екипи на компаниите да генерират кодова дума за всеки месец, която да се съхранява в криптирани хранилища за пароли. Ако има някакво съмнение относно лицето, с което разговаряте, можете да поискате кодовата дума да бъде изпратена чрез текст.

Провеждането на корпоративни разговори само по одобрени фирмени канали също значително намалява риска от дийпфейк. "Мястото, където се сблъскваме с проблеми, е излизането извън мрежата", казва Пиърсън.

Реалните примери за бизнес дълбоки фалшификации се увеличават, съгласен е Нирупъм Рой, доцент по компютърни науки в Университета на Мериленд и допълва, че не става въпрос само за престъпни трансфери на банкови сметки. "Не е трудно да си представим как дълбоки фалшификати могат да се използват за целенасочено клеветничество, за да се опетни репутацията на даден продукт или компания", обяснява той.

Рой и екипът му са разработили система, наречена TalkLock, която работи за идентифициране както на дълбоки, така и на обикновени фалшификати, които той описва като разчитащи на "по-малко на сложни техники за редактиране и повече на свързване на частични истини с малки лъжи".

Системата може и да не е отговорът на персонализираните измами, генерирани от изкуствен интелект, но е предназначена за физически лица (които имат достъп до приложение) и корпорации (на които е предоставен достъп до модул за проверка), за да могат да разпознават манипулации с изкуствен интелект.

Работи чрез вграждане на QR код в аудиовизуални медии, като публични изяви на живо на политици и известни личности, както и публикации в социални медии, реклами и новини, които могат да докажат автентичността.

Рой се бори с нарастващ проблем, свързан с неофициалните записи – например видео и аудио, направени от членове на публиката по време на събития, които за разлика от официалните медии не могат да бъдат идентифицирани чрез метаданни.

Живот офлайн с многофакторно удостоверяване

Дори при наличието на повече техники за защита, експертите прогнозират спираловидна надпревара в използването на инструменти за дълбоки фалшификации. За компаниите има определени процедури, които могат да предотвратят най-лошите последици.

Еял Бенищи, главен изпълнителен директор на Ironscales, компания за софтуер за сигурност на електронната поща, заяви, че организациите все повече ще приемат разделение на задълженията, така че нито един човек да не може да бъде измамен достатъчно, за да навреди на компанията. Това означава разделение на процесите на работа с чувствителни данни и активи.

Например промените в информацията за банковата сметка, използвана за плащане на фактури или заплати, трябва да изискват двама души за промяна и (в идеалния случай) трети човек за уведомяване.

"По този начин, дори ако служител попадне на социално-инженерна атака, която изисква да пренасочи плащане по фактура, ще има спирачки, тъй като заинтересованите страни ще бъдат привлечени да изпълняват своите роли в командната верига", казва Бенищи.

На най-основно ниво компаниите и техните служители трябва да започнат да живеят по начин на многофакторно удостоверяване с няколко варианта за проверка на реалността. В крайна сметка, старата школа все още работи, като например да се разходте по коридора, за да се видите лично с шефа. Засега това не може да бъде дълбоко фалшифицирано.

Не бива да забравяме, че дълбоките фалшификати са просто най-новото в дългата поредица от измами, които се възползват от човешката уязвимост, създавайки фалшиво чувство за спешност.

Според Пиърсън най-добрата противоотрова срещу дълбокия фалшификат може да е най-простата: забавете темпото. Тактика, която вероятно по-лесно се използва от хората в личния им живот, отколкото от служителите в професионалния.

"Забавянето на темпото почти винаги дава категоричен отговор. Всяка компания трябва да има политика на "сигурно пристанище", според която, ако почувства, че го притискат да вземе решение, служителят трябва да бъде в правото си да откаже, да се свърже с отдел по сигурността и да бъде предпазен", казва Пиърсън.

"Трябва да дадем на хората предимството да спрат и да кажат "не". Ако те не се чувстват така, че да могат да кажат "не", тогава се случват грешки", допълва Пиърсън.