Кандидатствайки за работа, 24-годишната узбекистанка, представяща се като Ейнджъл, акцентира върху своите езикови умения: „Говоря свободно английски, добър китайски, както и руски и турски.“ В селфи видео тя информира потенциалните работодатели, че току-що е пристигнала в Сиануквил, Камбоджа, и е готова да започне работа незабавно.

Тези умения обаче не са насочени към стандартна корпоративна позиция. Ейнджъл кандидатства за работа като „AI модел“ – човек, който участва в deepfake видеоразговори с цел манипулиране на потенциални жертви на онлайн измами.

В кандидатурата се изискват и данни като ръст и тегло. Тя отбелязва, че има „една година опит на позицията AI модел“.

Глобална мрежа за измами с човешки лица

Това не е изолиран случай. Анализ на десетки видеокандидатури и обяви за работа в Telegram, прегледани от WIRED, показва, че хора от различни страни кандидатстват за позиции като „AI модели“ или „real face модели“ в Камбоджа и други части на Югоизточна Азия.

Регионът се е превърнал в център на мащабни индустриализирани измамни операции, при които хиляди жертви на трафик на хора са държани насила и принуждавани да участват в онлайн криптоинвестиционни и романтични измами.

„През последната година започнаха активно да наемат хора, които да бъдат AI модели“, казва Хиеу Мин Нго, изследовател на киберпрестъпността във виетнамската неправителствена организация ChongLuaDao, пред WIRED. Той обяснява, че на кандидатите се предоставя софтуер за промяна на лица с изкуствен интелект, който се използва за участие в романтични измами.

„AI стаи“ и deepfake разговори

Обикновено този модел включва създаване на фалшиви онлайн профили, които установяват контакт с потенциални жертви чрез социалните мрежи. Измамниците използват снимки на привлекателни мъже или жени, често откраднати от интернет или от профили на известни личности, за да изградят доверие.

След установяване на контакт жертвите получават засилено внимание и емоционални послания с цел изграждане на връзка, която да доведе до инвестиции или финансови преводи. При поискване на видеоразговор се използват deepfake видеоразговори, често организирани от специални „AI стаи“ в измамните центрове.

Тежки условия и съмнителни обещания

Обявите за работа, разгледани от WIRED, често изискват изключително дълги работни часове с минимални почивки. Някои позиции включват до 100 или 150 видеоразговора на ден, както и ежедневни снимки, гласови съобщения и видео съдържание.

Една обява изисква работа между 22:00 и 10:00 часа камбоджанско време и предпочитание за „западен акцент“. Друга уточнява, че „компанията ще задържи паспорта на служителя за управление на визата и разрешителното за работа“ – практика, често използвана за контрол върху жертвите на трафик.

Въпреки това кандидатите понякога изискват възнаграждения до 7000 долара на месец и конкретни условия, като собствена стая, възможност за излизане или прибиране у дома през почивните дни. Това показва, че част от „AI моделите“ работят доброволно и имат повече свобода от хората, които са принудително задържани.

Рискове, насилие и сива зона

Според Линг Ли, съосновател на организацията EOS Collective, която работи с жертви на измамната индустрия, дори доброволно наетите модели могат да бъдат подложени на насилие или тормоз.

„Жертва от Европа ни разказа, че е виждала модели от Италия в комплекса, но не е успяла да разбере дали са там по собствена воля. Те са били бити пред очите ѝ, имало е и сексуален тормоз“, разказва тя.

WIRED е изпратил списък с десетки канали за набиране на персонал до Telegram. По данни на изданието те все още не са премахнати. От компанията заявяват, че измамната дейност е забранена според правилата на платформата, но подобно съдържание се разглежда индивидуално.

„Има легитимни причини човек да предостави своя образ, затова всеки случай трябва да бъде анализиран поотделно“, посочва говорител на Telegram.

Въпреки че много обяви не споменават директно измами, те съдържат редица предупредителни сигнали, като използване на термина „клиенти“ вместо „жертви“, чести препратки към криптоинвестиции или търговия със злато, както и изискване за китайски език.

В някои случаи формулировките са по-директни. Един кандидат описва опита си като „три години обслужване на клиенти в платформа за крипто измами“, а друг посочва „love scam“ като пазарна ниша.

Deepfake доверието

Франк Маккена, стратег в компанията за антифрод софтуер Point Predictive, започва да комуникира с измамници, след като майка му получава съобщения за инвестиции. Той организира и видеоразговор между тях.

„Целта на разговора беше единствено да докажат, че са реални хора и да изградят доверие“, казва Маккена. Той отбелязва, че жената на екрана е използвала AI филтър, а в стаята се чували и други гласове.

По-късно той разпознава същия модел в онлайн видео за нова работа. „Изглежда има малък свят от такива AI модели, които се местят от място на място доброволно и печелят прилични пари. Вероятно прекарват целия ден във видеоразговори с различни жертви“, казва той.

Разрастването на ролята на изкуствения интелект в измамните схеми показва колко бързо престъпните мрежи адаптират новите технологии. Съчетавайки човешко присъствие с deepfake инструменти, измамите стават по-убедителни и по-трудни за разкриване.

Така наречените „AI модели“ се превръщат в ново звено в глобалната индустрия за онлайн измами – сектор, който вече генерира милиарди долари и продължава да разширява влиянието си.