Екзистенциален риск: Защо моделът за ядрени оръжия няма да работи при AI
Изкуственият интелект е толкова голяма заплаха за човечеството, колкото ядрената война, обявиха преди месец водещи технологични лидери и учени.
Аналогията между двете области набира все по-голяма сила и влиятелни личности, сред които главният изпълнителен директор на OpenAI Сам Алтман и генералният секретар на ООН Антонио Гутериш, предложиха създаването на международна агенция, подобна на Международната агенция за атомна енергия (МААЕ).
Но това са много различни технологии и ядреният модел на управление не би работил добре за AI, се казва в анализ по темата на Кралския институт за международни отношения в Лондон Chatham House.
Какво представлява МААЕ
МААЕ е създадена през 1957 г., за да насърчава мирното използване на ядрените технологии благодарение на президента на САЩ Айзенхауер, който предлага агенцията в речта си "Атоми за мир".
Уставът на агенцията я задължава да насърчава ядрената енергия за мир, здраве и просперитет и да гарантира, доколкото е възможно, че тя не се използва за военни цели.
МААЕ извършва инспекции за гарантиране на сигурността в граждански ядрени съоръжения като атомни електроцентрали и изследователски реактори, за да гарантира, че ядрените материали в неядрени държави не се прехвърлят за военни програми.
Агенцията е изключително успешна в своята охранителна дейност, с изключение на Ирак в края на 80-те години.
Тя разкри няколко случая на неспазване на изискванията и допринесе значително за промяна на поведението и предотвратяване на разпространението на ядрени оръжия, включително в Иран.
Екзистенциален страх от ядрена война
Още от самото начало на разработването си ядрените оръжия представляват известен и количествено измерим екзистенциален риск.
Ядрената бомбардировка на Хирошима и Нагасаки през август 1945 г. свидетелства за разрушителния, безразборен и неуправляем характер на тези оръжия.
Един от основните мотиви за основаването на МААЕ и на договори за контрол на въоръженията като Договора за неразпространение на ядреното оръжие беше огромният страх от ядрена война.
Тези опасения са основателни.
В разгара на Студената война се твърдеше, че САЩ и тогавашният Съветски съюз разполагат с достатъчно ядрено оръжие, за да "унищожат човечеството такова, каквото го познаваме". Последните изчисления показват, че броят на ядрените оръжия, необходими за унищожаването на условията за човешко обитаване, е по-малък от 100.
Следователно рисковете, породени от самото съществуване на ядрените оръжия и заплахата от тяхното използване, са екзистенциални; а дълбоките хуманитарни рискове и последици, които биха възникнали в резултат на използването им, бяха движещата сила, довела до приемането през 2017 г. на Договора за забрана на ядрените оръжия.
Страхът от катастрофа отклонява усилията за избягване на рисковете
Към момента няма твърди научни доказателства за екзистенциален и катастрофален риск от AI.
Много от опасенията остават хипотетични и отклоняват общественото внимание от вече належащите етични и правни рискове, произтичащи от новата технология и последващите от тях вреди.
Това не означава, че рисковете, свързани с AI не съществуват. Все повече доказателства документират вредите, които тези технологии могат да нанесат, особено на най-застрашените групи, като например етническите малцинства, населението в развиващите се страни и други уязвими групи.
Свръхзависимостта от AI, особено за критичната национална инфраструктура може да бъде източник на значителна уязвимост, но това няма да е катастрофално.
Притесненията относно по-широки, екзистенциални рискове, свързани с AI, трябва да се разглеждат внимателно, стъпка по стъпка, докато се събират и анализират доказателства. Твърде бързото пристъпване към контрол може и да навреди, смятат от Chatham House.
Овладяването на AI е почти невъзможно
Техническите аспекти на ядрените оръжия са различни от тези на AI. Разработването на ядрени оръжия се сблъсква с физически пречки. Производството им изисква специфични материали в специфични форми - като плутоний и високообогатен (над 90 %) уран и тритий.
Тези материали произвеждат уникални, измерими сигнатури. Най-малките следи могат да бъдат открити при рутинни проверки и да бъдат разкрити тайни дейности.
Ядрените оръжия не могат да бъдат произведени без тези специални материали. Контролирането на достъпа до материалите физически забранява на държавите, на които не е разрешено да ги придобият, да го правят. Това е много по-различно от изкуствения интелект, който по същество е базиран на софтуер и е с общо предназначение.
Въпреки че разработването и обучението на AI може да изисква големи инвестиции и суперкомпютри с огромна изчислителна мощ, неговите приложения са широко разпространени и все повече предназначени за масова употреба във всички сегменти на обществото.
В този смисъл AI е точно обратното на ядрените оръжия.
Неосезаемото му естество ще направи трудно, ако не и невъзможно, неговото ограничаване - особено с увеличаването на AI с отворен код. Следователно мерките за защита и методите за проверка, подобни на тези, използвани от МААЕ, не биха били подходящи поради тези присъщи технически различия.
Какво би могло да работи
Необходими са политически мерки за справяне с рисковете при разработването и внедряването на AI. Но моделите на управление, които са далеч от ядрената област, предлагат по-добро вдъхновение.
Решение, подобно на това на Американската агенция по храните и лекарствата (FDA), може да осигури разумен подход за надзор на пускането на пазара и комерсиализацията на продукти на AI.
То би се състояло от мащабен модел за пускане на пазара, наред със строги изисквания за одит и всеобхватни оценки на риска, които да оценяват както преките, така и косвените последици от въпросния продукт.
Референтната лаборатория на ЕС за генетично модифицирани храни и фуражи (EURL GMFF) също предоставя полезен начин да се мисли за някои видове контрол и регулиране на AI.
AI би могъл да бъде регулиран от международна агенция, но тя трябва да работи на принципите на Международната група по изменение на климата и да направи още една крачка напред към препоръката на генералния секретар на ООН за консултативен орган на високо равнище, допълват от Chatham House.
Подобна агенция би помогнала на международната общност да получи разнообразни и пълни данни в областта, като гарантира, че последващите обсъждания са цялостни, основани на доказателства и приобщаващи.
Тази международна агенция би могла да бъде новосъздадена или да разшири дейността на съществуващите специализирани агенции, като например Международния съюз по далекосъобщения, който съчетава както стандарти, така и разпоредби, преразглеждани редовно чрез Световната конференция по радиосъобщения. Тази структура би могла да работи добре за изкуствения интелект с оглед на неговия динамичен характер и бърз технологичен напредък.
Дейностите на агенцията ще насърчават участието на всички заинтересовани страни; ще подпомагат преговорите и продължаващите усилия за ограничаване на рисковете и ще провеждат по-задълбочени и дългосрочни изследвания.
Моделите за управление на AI могат да бъдат обсъждани и чрез форуми, включително Форумите за управление на интернет (IGF), срещи в ООН, включително Глобалния цифров договор и Срещата на върха за бъдещето, както и чрез работата на пратеника на генералния секретар по технологиите.
През 2025 г. Световната среща на върха за информационното общество (WSIS) ще предостави важен момент за договаряне на начините за по-нататъшно управление на AI.
Тези агенции и форуми представляват по-добри модели за регулиране на изкуствения интелект и биха могли да управляват по-ефективно пълния му потенциал в полза на всички, се казва в заключението на анализа.