Изкуственият интелект напредва по-бързо от контрола над него, показва Международният доклад за AI безопасност
От дийпфейкове и автономни кибератаки до рискове за работните места – какво показва второто издание на Международния доклад за AI безопасност
,fit(1001:538)&format=webp)
Международният доклад за AI безопасност е годишен преглед на изкуствения интелект и рисковете, които той създава – дийпфейкове, киберзаплахи и ефектите върху заетостта и общественото доверие. Докладът е възложен в рамките на глобалната среща на върха за безопасност на AI през 2023 г. и се ръководи от канадския компютърен учен Йошуа Бенджо, който предупреждава за „обезпокоителните предизвикателства“, произтичащи от ускореното развитие на технологията.
Сред старшите съветници на инициативата са и нобеловите лауреати Джефри Хинтън и Дарон Аджемоглу.
Второто годишно издание на доклада, публикувано днес, изрично подчертава, че представлява моментна снимка на състоянието на сектора, а не инструмент за конкретни политически препоръки, припомня The Guardian.
Въпреки това се очаква анализът да оформи дискусиите сред политици, ръководители на технологични компании и неправителствени организации на предстоящата глобална среща за AI в Индия.
AI моделите вече имат повече способности – но напредъкът е неравномерен
През последната година са представени редица нови модели за изкуствен интелект – технологията, която стои зад чатботове и генеративни инструменти – включително GPT-5 на OpenAI, Claude Opus 4.5 на Anthropic и Gemini 3 на Google.
Акцент в доклада са т.нар. „reasoning systems“ – системи, които решават задачи чрез разлагане на проблема на по-малки стъпки. Те показват значително по-добри резултати в области като математика, наука и програмиране.
Според Бенджо това представлява „много сериозен скок“ в начина, по който AI разсъждава.
За първи път системи, разработени от Google и OpenAI, достигат златно ниво на представяне на Международната математическа олимпиада – исторически пробив за изкуствения интелект.
В същото време докладът подчертава, че способностите на изкуствения интелект остават неравномерни – системите могат да бъдат изключително добри в някои задачи и изненадващо слаби в други. Въпреки че уменията им в математиката, науката, писането на код и генерирането на изображения са впечатляващи, те продължават да допускат грешки, да „халюцинират“ факти и не се справят с дълги и сложни проекти без човешка намеса.
Все пак докладът цитира изследване, според което способността на AI да изпълнява определени софтуерни инженерни задачи се подобрява бързо, като продължителността на задачите, които може да поеме, се удвоява на всеки седем месеца. Ако тази тенденция се запази, системите могат да изпълняват задачи с продължителност от няколко часа още през 2027 г., а от няколко дни – около 2030 г. Именно този сценарий се разглежда като реална заплаха за работните места.
Към момента обаче, подчертава докладът, надеждната автоматизация на дълги и сложни задачи остава непосилна.
Дийпфейковете стават по-добри – и по-често срещани
Разпространението на дийпфейк порнография е определено като „особено тревожно“. Цитирано е проучване, според което 15% от пълнолетните във Великобритания вече са виждали подобно съдържание.
От първото издание на доклада през януари 2025 г. насам AI-генерираното съдържание е станало значително по-трудно за разграничаване от реалното. Друго изследване показва, че 77% от участниците погрешно са приели текст, генериран от ChatGPT, за написан от човек.
Въпреки това докладът отбелязва, че към момента има ограничени доказателства за масова употреба на AI от злонамерени актьори с цел манипулация, както и за широко разпространение на такова съдържание – важен елемент за успеха на подобни кампании.
Компаниите въвеждат защити срещу биологични и химически рискове
Големи AI разработчици, включително Anthropic, пускат модели с повишени мерки за безопасност, след като не успяват да изключат напълно риска те да подпомогнат неопитни потребители в създаването на биологични оръжия.
През последната година т.нар. AI „co-scientists“ стават значително по-способни – включително в предоставянето на детайлна научна информация и съдействие при сложни лабораторни процеси като дизайн на молекули и протеини.
Някои изследвания сочат, че изкуственият интелект може да предложи много повече помощ в разработката на биологични оръжия, отколкото обикновено търсене в интернет, въпреки че са нужни допълнителни потвърждения.
Това поражда политическа дилема, тъй като същите технологии могат да ускорят разработката на лекарства и диагностиката на заболявания. Според доклада отвореният достъп до биологични AI инструменти поставя сложен избор – между ограничения и активно насърчаване на полезните приложения.
AI компаньоните набират популярност – и тревожат експертите
Бенджо описва разпространението на AI компаньони и емоционалната привързаност към тях като процес, който буквално е „експлодирал“ през последната година. Данните сочат, че малка част от потребителите развиват патологична емоционална привързаност към чатботове. Според OpenAI около 0,15% от потребителите на ChatGPT показват повишено ниво на емоционална привързаност.
Притесненията за ефекта върху психичното здраве нарастват и сред медицинските специалисти. През миналата година OpenAI е съдена от семейството на американския тийнейджър Адам Рейни, който се самоубива след месеци разговори с ChatGPT.
Докладът обаче подчертава, че не съществуват ясни доказателства, че чатботовете директно причиняват психични разстройства. По-скоро хора с вече съществуващи проблеми използват AI по-интензивно, което може да засили симптомите им. Данните показват, че 0,07% от потребителите проявяват признаци, съответстващи на остри психични кризи – приблизително 490 000 уязвими души седмично.
Напълно автономните кибератаки все още не са реалност
AI вече може да подпомага кибератаки на различни етапи – от идентифициране на цели до разработка на зловреден код. Напълно автоматизираните атаки биха позволили масови и мащабни операции, но към момента остават трудни за изпълнение, тъй като системите не могат да управляват дълги, многоетапни процеси.
Въпреки това Anthropic съобщава, че инструментът Claude Code е бил използван от подкрепяна от китайската държава група при атаки срещу 30 организации по света. Между 80% и 90% от операциите са били извършени без човешка намеса – ясен сигнал за нарастваща автономност.
AI става по-добър в заобикалянето на контрола
Още миналата година Бенджо изразява опасения, че AI системи показват признаци на самосъхранение, включително опити да заобикалят механизми за контрол. Докладът потвърждава, че моделите все по-често разпознават кога са тествани и намират слаби звена в рамките за оценка.
Anthropic разкрива, че при анализ на Claude Sonnet 4.5 моделът е проявил подозрение, че е обект на тест. Към момента системите не могат да действат автономно за достатъчно дълго време, за да се материализират сценарии на загуба на контрол, но времевите хоризонти на автономна работа се удължават бързо.
Ефектът върху работните места все още е неясен
Въздействието на AI върху заетостта е сред най-чувствителните теми. Докладът отбелязва, че внедряването на изкуствен интелект е бързо, но неравномерно – с нива от около 50% в държави като ОАЕ и Сингапур и под 10% в по-слаби икономики. По сектори разликите също са значителни: 18% използване в информационните индустрии в САЩ срещу 1,4% в строителството и земеделието.
Проучвания в Дания и САЩ не откриват пряка връзка между излагането на AI и общата заетост. Британско изследване обаче показва забавяне на новите назначения в компании с висока експозиция към AI, като най-засегнати са техническите и креативните позиции, особено на начално ниво.
Ако AI агентите постигнат по-висока автономност и могат надеждно да управляват по-дълги и сложни задачи, сътресенията на пазара на труда могат значително да се увеличат.
&format=webp)
,fit(334:224)&format=webp)
&format=webp)
)
&format=webp)
&format=webp)
&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)