Великобритания ще бъде изправена пред множество кибератаки и кампании за дезинформация, подкрепяни от държавни играчи, докато се готви за избори през 2024 г., а изкуственият интелект е ключов риск, предупреждават експерти пред CNBC.

Британците ще гласуват на 2 май на местни избори, а националния вот в страната се очаква през втората половина на тази година, въпреки че британският министър-председател Риши Сунак все още не се е ангажирал с дата. Гласуванията ще се проведат в момент, когато страната е изправена пред редица проблеми, включително криза с разходите за живот и остри разногласия по отношение на имиграцията и предоставянето на убежище.

"Тъй като повечето граждани на Обединеното кралство ще гласуват в избирателните секции в деня на изборите, очаквам по-голямата част от рисковете за киберсигурността да се появят в месеците преди самия изборен ден", посочва пред телевизията Тод Маккинън, главен изпълнителен директор на компанията за сигурност Okta.

И това няма да е първият случай на политическа намеса през киберпространството.

През 2016 г. беше установено, че президентските избори в САЩ и гласуването за Брекзит във Великобритания са били пропити от дезинформация, разпространена в платформите на социалните медии, за която се твърди, че е дело на свързани с руската държава групи, въпреки че Москва отрича тези твърдения. Оттогава насам подкрепяни от различни тоталитарни държави участници извършват рутинни атаки, за да манипулират резултатите от национални избори, посочват киберексперти.

Междувременно миналата седмица Обединеното кралство обяви, че свързаната с китайската държава хакерска група APT 31 се е опитала да получи достъп до имейл акаунтите на британските законодатели, но тези опити са били неуспешни. Лондон наложи санкции на китайски физически лица и на технологична компания, базирана в Ухан, за която се смята, че е прикритие на APT 31.

САЩ, Австралия и Нова Зеландия също наложиха санкции срещу Пекин, който отхвърля твърденията за спонсорирани от него хакерски атаки, като ги нарича “неоснователни".

Киберпрестъпниците използват изкуствен интелект

Експертите по киберсигурност очакват злонамерени участници да се намесят в предстоящите избори по няколко начина - не на последно място чрез дезинформация, която се очаква да бъде още по-силна тази година заради широкото използване на изкуствен интелект.

Синтетичните изображения, видеоклипове и аудиоматериали, генерирани с помощта на генеративен изкуствен интелект - обикновено наричани "дълбоки фалшификати" - ще бъдат често срещано явление, тъй като за хората става все по-лесно да ги създават, предупреждават експертите.

"Държавните зловредни актьори и киберпрестъпниците вероятно ще използват атаки, базирани на изкуствен интелект, като фишинг, социално инженерство, рансъмуер и компрометиране на веригата за доставки, за да атакуват политици, служители на предизборни кампании и институции, свързани с изборите", казва Маккинън от Okta. "Със сигурност ще видим и наплив от съдържание, управлявано от AI и ботове, генерирано от въпросните участници, които ще се стремят да разпространяват дезинформация в още по-голям мащаб, отколкото сме виждали в предишни изборни цикли."

Общността за киберсигурност призовава за повишена осведоменост за този вид дезинформация, генерирана от AI, както и за международно сътрудничество за намаляване на риска от подобна злонамерена дейност.

Най-големият изборен риск

Адам Майерс, ръководител на операциите за противодействие в CrowdStrike, на свой ред заявява, че дезинформацията, задвижвана от AI, е топ риск за изборите през 2024 г.

"В момента генеративният AI може да се използва за вреда или за добро и затова всеки ден виждаме все по-широко възприети и двете му приложения", казва Майерс.

Според последния годишен доклад за заплахите на Crowdstrike е много вероятно Китай, Русия и Иран да провеждат операции за дезинформация срещу различни изборни кампании с помощта на инструменти като генеративния AI.

"Този демократичен процес е изключително крехък", акцентира Майерс. "Когато започнете да разглеждате как враждебни национални държави като Русия, Китай или Иран могат да използват генеративен AI и някои от по-новите технологии за създаване на съобщения и дълбоки фалшификати, за да създават убедителни за хората разкази, особено когато те вече имат този вид предубеждения, всичко изглежда изключително опасно."

Ключов проблем е, че AI намалява бариерата за престъпни кампании в киберпространството. Това вече се случва под формата на измамни имейли, изготвени с помощта на леснодостъпни инструменти като ChatGPT.

Според Дан Холмс, специалист по превенция на измамите в компанията за регулаторни технологии Feedzai, хакерите разработват и по-усъвършенствани - и персонализирани - подходи като обучават моделите си върху лична потребителска информация, достъпна в социалните медии.

Изборите като изпитание за технологичните гиганти

Местните избори във Великобритания ще послужат като ключов тест за технологични гиганти като собственика на Facebook - Meta, Google и TikTok по отношение на възможностите им да ограничат кампаниите за дезинформация в платформите си. Meta например вече предприе стъпки за добавяне на "воден знак" към съдържанието, генерирано от изкуствен интелект, така че потребителите да са наясно, че то не е създадено от човек.

Технологията за създаване на дълбоки фалшификати обаче се развива все повече. Затова и за много технологични компании надпреварата да се справят с тази заплаха започва да изглежда като борба срещу огъня с огън.

"Дълбоките фалшификати преминаха от нещо теоретично към съвсем реална продукция днес", казва Майк Тучен, главен изпълнителен директор на Onfido. "Сега се играе на котка и мишка, като основният сблъсък е "AI срещу AI".

Киберекспертите казват, че става все по-трудно да се определи кое съдържание е истинско, но винаги има някои белези, че дадена снимка, видеоклип или аудиофайл е цифрово манипулирана. AI използва подсказки, за да генерира текст, изображения и видео, но невинаги се справя по най-добрия начин.

"Със сигурност ще видим много дълбоки фалшификати по време на изборния процес, но една лесна стъпка, която всички можем да предприемем, е да проверяваме автентичността на нещо, преди да го споделим", съветва Маккинън от Okta.