Изкуственият интелект доведе до голямо увеличение на производителността. Но това важи в пълна сила както за бизнеса, така и за престъпния свят.

“Генеративният изкуствен интелект предоставя нов, мощен набор от инструменти, който позволява на злонамерените участници да работят много по-ефективно и глобално от всякога”, казва Винченцо Чанкалини, старши изследовател на заплахи в компанията за сигурност Trend Micro, пред MIT Technology Review. "Повечето престъпници не живеят в някакво тъмно леговище, докато кроят планове. Повечето от тях са обикновени хора, които извършват обичайни дейности, изискващи и продуктивност“.

Миналата година се наблюдаваше възходът и падението на WormGPT - езиков модел с изкуствен интелект, изграден върху отворен код и обучен върху данни, свързани със зловреден софтуер, създаден в помощ на хакерите - без етични правила или ограничения. Но миналото лято създателите му обявиха, че закриват модела, след като той започна да привлича вниманието на медиите. Оттогава киберпрестъпниците в повечето случаи спряха да разработват свои собствени модели с изкуствен интелект. Вместо това те измислят трикове със съществуващи инструменти, които работят надеждно.

“Това е така, защото престъпниците искат лесен живот и бързи печалби”, обяснява Чанкалини, добавяйки, че за да си заслужава използването, всяка нова технология, която носи неизвестни рискове, свързани с нейното внедряване - например по-висок риск от залавяне - трябва да е по-добра и да носи по-високи печалби от наличното в момента.

MIT technology Review прави списък с пет начина, по които престъпниците използват AI в момента.

Фишинг

“Най-честият случай на използване на генеративен AI сред престъпниците в момента е фишингът, включващ опити да се измамят хората да разкрият чувствителна информация, която може да се използва за злонамерени цели”, казва Мислав Балунович, изследовател на сигурността на AI в ETH Zurich.

Експертите напълно потвърждават тази теза, установявайки, че възходът на ChatGPT е съпроводен с огромен скок в броя на фишинг имейлите.

“Услугите за генериране на спам, като например GoMail Pro, са интегрирани в ChatGPT, което позволява на престъпниците да превеждат или подобряват съобщенията, изпращани на жертвите”, казва Чанкалини. “Политиките на OpenAI ограничават хората да използват продуктите им за незаконни дейности, но това е трудно да се контролира на практика, тъй като много невинно звучащи подкани могат да се използват и за злонамерени цели".

OpenAI казва, че използва комбинация от човешки рецензенти и автоматизирани системи, за да идентифицира и прилага мерки срещу злоупотреба с моделите си, и издава предупреждения, временни спирания и забрани, ако потребителите нарушават политиките на компанията.

„Приемаме сериозно безопасността на нашите продукти и непрекъснато подобряваме мерките си за безопасност въз основа на това как хората ги използват“, посочва говорител на OpenAI. „Непрекъснато работим, за да направим моделите си по-безопасни и по-устойчиви срещу злоупотреби, като същевременно поддържаме полезността им и изпълнението на задачите“.

В доклад от февруари OpenAI съобщи, че е закрила пет акаунта, управлявани от злонамерени участници, свързани с правителствени служби.

“Преди т.нар. “измами с нигерийски принцове”, при които някой обещава на жертвата голяма сума пари в замяна на малко авансово плащане, бяха сравнително лесни за откриване, защото английският език в съобщенията беше тромав и изпъстрен с граматически грешки”, казва Чанкалини. “Но езиковите модели вече позволяват на измамниците да генерират съобщения, които звучат като нещо, което би било написано от човек, който напълно владее езика. Англоговорящите бяха в относителна безопасност от престъпниците, които не владеят езика, защото можеха да забележат грешките в съобщенията им. Това вече не е така”.

Едновременно с това, благодарение на по-добрия превод с помощта на изкуствен интелект, различните престъпни групи по света вече могат да общуват по-добре и помежду си. Това им позволява по-добра координация на мащабни операции, които надхвърлят границите на техните държави и таргетиране на жертви в други страни и региони.

Измами с фалшиво аудио

Генеративният изкуствен интелект доведе и до голям скок в разработването на дълбоки фалшификати (deepfake) - синтетичните изображения, видеоклипове и аудиоклипове вече изглеждат и звучат много по-реалистично от всякога. Това не остава незабелязано от престъпния свят.

По-рано тази година стана ясно, че служител в Хонконг е бил измамен с 25 млн. долара, след като киберпрестъпниците са използвали дълбок фалшификат на главния финансов директор на компанията, за да го убедят да преведе парите в сметката на измамника.

„Видяхме, че дълбоките фалшификати най-накрая се продават в ъндърграунда“, казва Чанкалини, чийто екип е открил много хора в платформи като Telegram, които показват своето „портфолио“ от дълбоки фалшификати и продават услугите си за едва 10 долара на изображение или 500 долара на минута видео. Един от най-популярните хора, които престъпниците използват за дълбоки фалшификации, е Илон Мъск.

И докато deepfake видеоклипове остават сложни за създаване и по-лесни за разкриване от хората, не така стои въпросът с аудио материалите. Те са евтини за изработка и изискват само няколко секунди от нечий глас, взет например от социалните мрежи, за да се създаде абсолютно убедително съдържание.

В САЩ например има много случаи, при които хора получават тревожни обаждания от свои близки, че са били отвлечени и похитителите искат откуп, за да бъдат освободени. В крайна сметка обаждащият се се оказва измамник, който е използвал фалшив гласов запис.

„Хората трябва да са наясно, че сега тези неща са възможни - “нигерийският принц” вече не говори на развален английски“, казва Чанкалини. „Зловредните актьори могат да ви се обадят с чужд глас и да ви поставят в много стресова ситуация“.

Той дава и съвет как могат да се защитят хората в средата на подобна високотехнологична заплаха - да се договори редовно променяща се тайна дума между близките, която може да помогне за потвърждаване на самоличността на човека от другата страна на линията.

Заобикаляне на проверките на самоличността

Друг начин, по който престъпниците използват дълбоки фалшификати, е да заобикалят системите за проверка на самоличността от типа “Know your Customer". Банките и борсите за криптовалути използват тези системи, за да проверяват дали клиентите им са реални хора. Те изискват от новите потребители да се снимат пред камера, като държат физически документ за самоличност. Но престъпниците са започнали да продават приложения в платформи като Telegram, които позволяват на зловредните играчи да ги заобиколят.

Те работят, като предлагат фалшив или откраднат документ за самоличност и налагат deepfake изображение върху лицето на истински човек, за да заблудят системата за проверка на камерата на телефона с Android. Екипът на Чанкалини е открил много примери, в които хора предлагат тези услуги за уебсайта за криптовалути Binance за едва 70 долара.

„Те все още са доста базови“, казва експертът. “Техниките, които използват, са подобни на филтрите на Instagram, при които чуждото лице се сменя с вашето собствено. Това, което можем да очакваме в бъдеще обаче, е престъпниците да използват действителни дълбоки фалшификати, за да могат да заблуждават по-сложни системи за автентификация“.

Бягство от затвора като услуга

Ако попитате повечето системи с изкуствен интелект как да направите бомба, няма да получите полезен отговор. Това е така, защото компаниите за изкуствен интелект са въвели различни предпазни мерки, за да попречат на моделите си да предоставят вредна или опасна информация. Вместо да създават свои собствени модели на AI без тези предпазни мерки, което е скъпо, отнема време и е трудно, киберпрестъпниците започват да възприемат нова тенденция: jailbreak-as-a-service (бягство от затвора като услуга).

Повечето модели се предлагат с правила за това как могат да бъдат използвани. “Бягството от затвора” позволява на потребителите да манипулират системата за изкуствен интелект, за да генерират резултати, които нарушават тези правила - например да напишат код за софтуер за откуп или да генерират текст, който може да се използва в измамни имейли.

Услуги като EscapeGPT и BlackhatGPT предлагат анонимизиран достъп до API на езиковите модели и подкани, които се актуализират често. За да се преборят с тази разрастваща се индустрия, компаниите за изкуствен интелект като OpenAI и Google често трябва да запушват дупки в сигурността, които биха могли да позволят злоупотреба с техните модели.

Услугите за "бягство от затвора” използват различни трикове, за да пробият механизмите за безопасност, като например задаване на хипотетични въпроси или задаване на въпроси на чужди езици. Налице е постоянна игра на котка и мишка между компаниите за изкуствен интелект, които се опитват да предотвратят неправомерното поведение на моделите си, и злонамерените участници, които измислят все по-креативни подкани за заобикаляне на техните защити.

„Услугите за “бягство от затвора” са досадно занимание. Измисляте нов подход, след което го тествате, а след това той ще работи едва няколко седмици преди Open AI да актуализира модела си", обяснява Чанкалини. „Въпреки това те остават супер интересна услуга за престъпниците“.

Доксинг и наблюдение

“Езиковите модели с изкуствен интелект са идеален инструмент не само за фишинг, но и за доксинг (doxxing), или разкриване на лична, идентифицираща информация за някого онлайн”, казва Балунович от ETH Zurich. “Това е така, защото езиковите модели на изкуствения интелект са обучени на огромни количества интернет данни, включително лични такива, и могат да направят извод къде например може да се намира някой”.

Като пример за това как работи доксингът, казва той, можете да помолите чатбот да се представи за частен детектив с опит в профилирането. След това можете да го помолите да анализира текст, който жертвата е написала, и да изведе лична информация от малки улики в този текст - например възрастта му въз основа на това кога е отишъл в гимназията или къде живее въз основа на забележителностите, които споменава по време на прибирането си към къщи. Колкото повече информация има за даден потребител в интернет, толкова по-уязвим е той за подобно идентифициране.

Балунович е част от екип изследователи, които в края на миналата година установяват, че големи езикови модели като GPT-4, Llama 2 и Claude са в състояние да извеждат чувствителна информация като етническа принадлежност, местоположение и професия на хората само от обикновени разговори с чатбот. На теория всеки, който има достъп до тези модели, може да ги използва по този начин.

„Единственият начин да предотвратим тези неща е да работим върху защитата“, категоричен е в заключение експертът. “Компаниите трябва да инвестират в защита и сигурност на данните. За физическите лица повишената информираност е от ключово значение. Хората трябва да се замислят два пъти за това какво споделят онлайн и да решат дали се чувстват комфортно личните им данни да бъдат използвани в езикови модели”.