Бързината, с която се развива изкуственият интелектq може съвсем скоро да предизвика вълна от нови заплахи, като купища фалшиви новини, кибератаки и нападения върху физически обекти и инфраструктура.

Това предупреждава група експерти, които обаче не посочват конкретни методи за превенция на този евентуален апокалиптичен сценарий, пише Financial Times.

Изводите от проучването са поместени в доклад на име The Malicious Use of Artificial Intelligence (Злонамереното използване на изкуствения интелект).

Според авторите на труда, ако развитието на изкуствения интелект продължи с настоящите бързи темпове, скоро технологията ще стане толкова могъща, че ще може да прескача и преборва много от защитните механизми, съществуващи в наши дни, както във дигиталния, така и във физическия свят.

“Това, което ни порази, е всичко случило се през последните 5 години – ако това продължи, има шанс за създаването на нещо действително опасно“, казва Джак Кларк, ръководител Политики към американската неправителствена организация OpenAI, която е подкрепена от прочути имена, като милиардера Илон Мъск.

Изкуственият интелект може да направи нещата далеч по-лесни за нападателите, като намали разходите за създаване и разпространение на нови кибероръжия или повиши прецизността при похищения, предупреждават експертите.

На полето на кибероръжията, новите технологии могат да превърнат фишинг атаките в нещо доста по-опустошително, тъй като тези нападения ще могат да стават персонализирано, а не масово, както сега.

Докладът алармира, че дроновете и автономните автомобили могат да бъдат контролирани от трети лица, превръщайки се в оръжия, като изкуственият интелект лесно може да организира цели рояци от дронове, например.

Междувременно, политическата система може да бъде хакната чрез инструменти, разработени за онлайн влияние, така че електоратът да бъде подведен. Последното има неподозирани възможности, особено с огромната база данни, която събират корпорациите за нас, нашето поведение, интереси и прочее всичко.

Авторите на доклада, сред които има изследователи от University of Oxford и Electronic Frontier Foundation, искат да предизвикат по-широк обществен дебат относно заплахите, свързани с изкуствения интелект, генното модифициране и прочее.

За добро или лошо, учените не предлагат някакви конкретни действия, за да се предотврати подобен развой на събитията. Въпреки това, всеки екип, разработващ приложения на база изкуствен интелект, има собствен начин да залага на сигурността.

Така например, OpenAI не направи публично достижението си, свързано с алгоритъм, който може да усеща настроенията, четейки ревюта в Amazon,

Организацията реши да запази от очите на публиката кода и езика, използван за създаването на тази технология, като превенция от евентуални злоупотреби с него. Подобна технология може да се използва за генерирането на огромно количество фалшиви новини и ревюта, например.