Ювал Ноа Харари: „AI може да предизвика катастрофална финансова криза“
В интервю за The Guardian известният историк и писател Ювал Ноа Харари изразява фундаментална загриженост относно тестването на безопасността на моделите на AI, като отбеляза трудността да се предвидят безбройните „катастрофални проблеми“, които една такава мощна система може да създаде.
„За разлика от ядрените оръжия, тук няма един голям, опасен сценарий, който всички да разбират", казва той.
Харари подчертава, че „AI въвежда множество опасни сценарии, всеки от които е с относително малка вероятност, но кумулативното въздействие на тези сценарии представлява екзистенциална заплаха за човешката цивилизация.“
Световната среща на върха по въпросите на безопасността на AI в Блетчли Парк, на която водещи правителства, включително Европейският съюз, Обединеното кралство, Съединените щати и Китай, изразиха загриженост за AI, се смята от Харари за "много важна стъпка напред".
Подписаната там декларация има за цел да насърчи глобалното сътрудничество, което е решаващ елемент за предотвратяване на опасния потенциал на изкуствения интелект.
Писателят отбелязва, че един от проблемите при тестването на безопасността на моделите е да се предвидят всички проблеми, които една мощна система може да предизвика.
"AI се различава от всяка предишна технология в човешката история, защото е първата технология, която може сама да взема решения, сама да създава нови идеи и която може сама да се учи и развива. Изключително трудно е за хората, дори за тези, които са създали технологията, да предвидят всички потенциални опасности и проблеми."
Харари обръща внимание на финансовия сектор като особено податлив на влиянието на технологията, предвид нейната ориентираност към данните. Той повдига въпроса за перспективата тя да създаде финансови инструменти, които да са толкова сложни, че никой човек да не може да ги разбере, подобно на дълговите инструменти, допринесли за финансовата криза от 2007-2008 г., които малко хора разбираха и поради това не бяха адекватно регулирани.
Макар Харари да признава, че потенциалната финансова криза, предизвикана от изкуствен интелект, може и да не унищожи пряко човешката цивилизация, той подчертава катастрофалните рискове, които тя може да породи в икономически, социален и политически аспект. Той също така предупреждава, че подобна криза може косвено да доведе до нови конфликти и войни.
Историкът се застъпва за спиране на развитието на напреднал изкуствен интелект. Той настоява да се търси отговорност от създалите го компании под формата на компенсации за щетите, причинени от технологията.
Харари подчертава и необходимостта от регулаторни институции със задълбочени познания по изкуствения интелект. Според него фокусът трябва да бъде поставен върху създаването на гъвкави регулаторни рамки, способни да реагират бързо на нововъзникващите пробиви, а не върху конкретни разпоредби и закони.
Тъй като дебатът за етичните последици и безопасността на изкуствения интелект продължава, предупрежденията на Харари подчертават спешната необходимост от глобално сътрудничество и бдително регулиране, което да се изяви като компетентен орган в неизследваната територия на изкуствения интелект.