Дийпфейк измамите ограбват бизнеса с милиони и стават все по-опасни за хората
Обемът и сложността на измамите с подправено съдържание се увеличават, тъй като AI продължава да се развива
Нарастващата вълна от измами с дълбоки фалшификати (дийпфейк) вече ограби милиони долари от компании по целия свят, а експерти по киберсигурност предупреждават, че ситуацията може да се влоши, тъй като престъпниците все по-често използват генеративния изкуствен интелект за измами.
Дълбокият фалшификат е видеоклип, аудиосъдържание или изображение на реално лице, което е цифрово променено и манипулирано, често чрез изкуствен интелект, за да го представи убедително в невярна светлина. В един от най-мащабните известни случаи през тази година финансов служител от Хонконг беше подведен да преведе над 25 млн. долара на измамници, използващи технологията, за да се маскират като негови шефове по време на видеоразговор. Миналата седмица британската инженерна компания Arup потвърди пред CNBC, че именно тя е засегнатата организация, без обаче да даде подробности по въпроса заради продължаващото разследване.
„Подобни заплахи се увеличават в резултат на популяризирането на Chat GPT на Open AI - стартирал през 2022 г. - който бързо изстреля технологията на генеративния AI към масовия потребител“, коментира Дейвид Феърман, главен директор по информацията и сигурността в компанията за киберсигурност Netskope. „Публичната достъпност на тези услуги понижи бариерата за навлизане на киберпрестъпниците - вече не е необходимо да притежават специални технологични умения“. Той добавя, че обемът и сложността на измамите са се увеличили, тъй като технологиите за изкуствен интелект продължават да се развиват.
Задълбочаваща се тенденция
Различните генеративни услуги с AI могат да се използват за генериране на текст, изображения и видео съдържание, наподобяващо човешкото, и по този начин могат да действат като мощни инструменти за зловредните актьори, които се опитват да манипулират и пресъздават определени лица по цифров път. Говорител на Arup посочва пред CNBC:
„Подобно на много други предприятия по света, нашите операции са обект на редовни атаки, включително измами с фактури, фишинг, подправяне на гласа в WhatsApp и дълбоки фалшификати.“
Съобщава се, че финансовият служител, през който е реализирана атаката срещу компанията, е присъствал на видеоразговор с хора, за които се смята, че са главният финансов директор на компанията и други членове на ръководството. Те са поискали от него да направи въпросния паричен превод. Впоследствие обаче се оказва, че те в действителност са били дигитално пресъздадени фалшиви личности на реалните лица. Arup потвърждава, че при инцидента са използвани „фалшиви гласове и изображения“, като добавя, че „броят и сложността на тези атаки рязко се увеличават през последните месеци“.
Китайските държавни медии съобщиха за подобен случай в провинция Шанси през тази година, свързан с финансова служителка, която е била подмамена да преведе 1,86 млн. юана (262 000 долара) по сметка на измамник след видеоразговор с дийпфейк образ на нейния шеф.
Но подобни инциденти не са нещо ново. През 2019 г. главният изпълнителен директор на британски енергиен доставчик съобщи, че е превел 220 000 евро на измамник, който дигитално имитирал ръководителя на компанията майка и в телефонно обаждане поискал превод към предполагаем доставчик.
През август миналата година изследователи от компанията за киберсигурност Mandiant, собственост на Google, документираха редица случаи на незаконни участници, използващи AI и технологията за дълбоки фалшификати за фишинг измами, дезинформация и други незаконни цели. По това време компанията заяви, че използването на технологията за такива дейности е ограничено, но че нарастващата наличност на нови генеративни инструменти за AI ще ускори прилагането ѝ от злонамерените участници.
По-широки последици
В допълнение към директните атаки, компаниите са все по-загрижени за други начини, по които дийпфейк снимки, видеоклипове или аудиозаписи на техни висшестоящи лица могат да бъдат използвани по злонамерен начин, казват експерти по киберсигурност. Според Джейсън Хог, експерт по киберсигурност и резидентен изпълнителен директор в Great Hill Partners, дълбоките фалшификати на високопоставени членове на една компания могат да се използват за разпространение на фалшиви новини с цел манипулиране на цените на акциите, очерняне на марката, занижаване на продажбите и разпространение на друга вредна дезинформация.
„Това, което се случва в момента, е само драскане по повърхността“, казва Хог, който преди това е работил като специален агент на ФБР, като подчертава, че генеративният изкуствен интелект е в състояние да създава дълбоки фалшификати въз основа на богата цифрова информация, като например публично достъпно съдържание, поместено в социалните медии и други медийни платформи.
През 2022 г. Патрик Хилман, главен служител по комуникациите в Binance, разкри в публикация в блога си, че измамници са направили негов дийпфейк въз основа на предишни интервюта и телевизионни изяви, като са го използвали, за да измамят клиенти и контакти за срещи.
Феърман от Netskope пък акцентира, че подобни рискове са накарали някои ръководители да започнат да изтриват или ограничават онлайн присъствието си от страх, че то може да бъде използвано като муниции от киберпрестъпниците.
Технологията на дълбоките фалшификати вече е широко разпространена и извън корпоративния свят. От фалшиви порнографски изображения до манипулирани видеоклипове, рекламиращи кухненски съдове - известни личности като Тейлър Суифт станаха нейна жертва. Дълбоките фалшификати на политици също са широко разпространени. В същото време някои измамници създават дълбоки фалшификати на членове на семействата и приятели на хората в опит да ги измамят с пари.
Според Хог по-широките проблеми ще се ускорят и задълбочат за определен период от време, тъй като превенцията на киберпрестъпленията изисква обмислен анализ, за да се разработят системи, практики и контроли за защита от новите технологии.
Експертите по киберсигурност обаче са категорични пред CNBC, че компаниите могат да засилят защитата си срещу заплахите, задвижвани от изкуствен интелект, чрез подобряване на образованието на персонала, тестване на киберсигурността, въвеждане на кодови думи и няколко нива на одобрение за всички трансакции - мерки, които биха могли да предотврати случаи като този на Arup, например.