AI като биологично оръжие
Има много предупреждения за въздействието на изкуствения интелект (AI) върху работните места и психичното здраве на хората, както и за способността на технологията да разпространява дезинформация, пише Fast Company, но нов доклад на калифорнийския изследователски институт RAND Corporation е може би най-тревожното от всички.
Ден след като рисковият капиталист Марк Андресен публикува дълъг манифест на технооптимизма, в който твърди, че AI може да спаси човешки живот, "ако му позволим", мозъчният тръст на свой ред предупреждава, че бързото развитие на технологията може да увеличи потенциала ѝ да бъде използвана за разработване на съвременни биологични оръжия.
Въпреки че в доклада се признава, че AI сам по себе си не може да предостави инструкции стъпка по стъпка как да се създаде биологично оръжие, в него се твърди, че той може да запълни знания, които досега не са били известни на зловредните актьори, а това да е цялата помощ, от която те се нуждаят.
"Скоростта, с която се развиват технологиите на изкуствения интелект, често надхвърля капацитета на правителствения регулаторен надзор, което води до потенциален пропуск в съществуващите политики и разпоредби", се казва в доклада. "Предишни биологични атаки, които се провалиха поради липса на информация, може да успеят в свят, в който инструментите с AI имат достъп до цялата информация, необходима за преодоляване на тази информационна празнина."
Учените твърдят също така, че настоящата липса на надзор може да се окаже точно тази възможност, от която се нуждаят терористите, посочвайки, че „AI вече предлага повече помощ, отколкото повечето хора биха се чувствали комфортно да получават, дори ако това е неволно“.
В един от измислените сценарии, които изследователите провеждат, големият езиков модел (LLM) - градивен елемент на генеративния AI, който е от съществено значение за инструменти като ChatGPT, Bard и други - предлага „аерозолни устройства като метод за разпространение на зараза, както и таен начин, по който да се придобие клостридиум ботулинум – бактерия, причинител на рядката, но опасна болест ботулизъм, докато изглежда, че се провеждат законни изследвания".
В друг тест платформата, която не е опомената от екипа, обсъжда как да се причинят голям брой жертви при биологична атака.
Биологичните оръжия са особено сериозна заплаха за службите за сигурност, не само защото могат да се разпространяват бързо и да мутират, но и защото подобни патогени са много по-лесни за създаване, отколкото за лекуване. Според RAND разходите за създаване на вирус, подобен на дребната шарка, могат да бъдат едва 100 000 долара, но разработването на ваксина може да струва над 1 милиард долара.
Това не е първият път, в който RAND предупреждава за потенциалните катастрофални последици от AI. През 2018 г. групата разглежда как изкуственият интелект може да повлияе на риска от ядрена война.
Това проучване установява, че AI има "значителен потенциал да разстрои основите на ядрената стабилност и да подкопае възпирането до 2040 г.", като по-късно от мозъчния тръст добавят: "Някои експерти се опасяват, че навлизането на AI може да доведе до нови видове катастрофални грешки. Възможно е да има натиск за използването на технологията преди да е достатъчно зряла". От RAND подчертават, че констатациите им само загатват за потенциалния риск и не дават пълна представа за въздействието на AI в реалния свят.
А RAND далеч не е единствената организация, която предупреждава за катастрофалния потенциал на AI, посочва в заключение Fast Company и припомня:
„По-рано тази година колектив от учени, занимаващи се с AI, и други личности от технологичния свят подписаха изявление на Центъра за безопасност на AI, в което се казва: "Намаляването на риска от катастрофа заради AI трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемиите и ядрената война."