Създателите на AI настояват за строга регулация. В риск ли е човечеството?
Главният изпълнителен директор на Alphabet Сундар Пичай се ангажира с "Пакт за изкуствен интелект" на срещи с висши служители на Европейския съюз, съобщи CNBC.
На среща с Тиери Бретон, еврокомисар по въпросите на вътрешния пазар, Пичай заяви, че притежаваната от Alphabet Google ще си сътрудничи с други компании за саморегулиране, за да гарантира, че продуктите и услугите с изкуствен интелект се разработват отговорно.
"Пакт за изкуствен интелект"
"Съгласих се с главния изпълнителен директор на Google @SundarPichai да работим заедно с всички основни европейски и неевропейски участници в #AI, за да разработим вече "Пакт за AI" на доброволна основа преди законовия срок на регламента за AI", съобщи Бретон в Twitter.
An “AI Pact” ahead of the EU AI Act.
— Thierry Breton (@ThierryBreton) May 24, 2023
Agreed with Google CEO @SundarPichai to work together with all major European and non-European #AI actors to already develop an “AI Pact” on a voluntary basis ahead of the legal deadline of the AI regulation. pic.twitter.com/fNTpMPlc49
"Очакваме технологичните компании в Европа да спазват всички наши правила за защита на данните, онлайн безопасност и изкуствен интелект. В Европа не може да се избира. Радвам се, че @SundarPichai признава това и че се ангажира да спазва всички правила на ЕС.", допълни той.
По-рано този месец Европейският парламент даде зелена светлина на нов пакет от правила за изкуствения интелект, включващ разпоредби, които гарантират, че данните за обучение на инструменти като ChatGPT не нарушават законите за авторското право.
Целта на правилата е да се възприеме основан на риска подход към регулирането на изкуствения интелект, като приложенията на технологията, които се считат за "високорискови", като например лицевото разпознаване, се забраняват, а за приложенията, които представляват ограничен риск, се налагат строги ограничения за прозрачност, припомня още CNBC.
Напредваме прекалено бързо
Регулаторните органи са все по-загрижени за някои от рисковете, свързани с AI, като лидерите на технологичната индустрия, политиците и учените изразяват тревога за неотдавнашния напредък на новите форми на технологията, като генеративния изкуствен интелект и големите езикови модели, които го захранват.
Не на последно място, инструментите предизвикват тревоги и заради потенциала да създадат смущения на пазара на труда и способността им да произвеждат дезинформация.
ChatGPT, най-популярният инструмент за генеративен изкуствен интелект, е събрал повече от 100 милиона потребители, откакто беше пуснат през ноември. През март Google пусна Google Bard, своята алтернатива на ChatGPT, а по-рано този месец представи усъвършенстван нов езиков модел, известен като PaLM 2.
По време на друга среща с Вера Йоурова, вицепрезидент на Европейската комисия, Пичай пое ангажимент да гарантира, че продуктите на Google с изкуствен интелект се разработват с оглед на безопасността.
Както Пичай, така и Йоурова "се съгласиха, че AI може да окаже влияние върху инструментите за дезинформация и че всички трябва да бъдат подготвени за нова вълна от заплахи, генерирани от AI ", се казва в отчета от срещата, който беше предоставен на CNBC.
"Част от усилията биха могли да бъдат насочени към маркиране или осигуряване на прозрачност на съдържанието, генерирано от AI. Г-н Пичай подчерта, че моделите на AI на Google вече включват предпазни мерки и че компанията продължава да инвестира в тази област, за да гарантира безопасно внедряване на новите продукти.", заявяват от Европейската комисия.
Еквивалент на Международната агенция за атомна енергия
Междувременно, в деня на срещите на Сундар Пичай с представители на ЕС, от OpenAI – компанията разработик на приложението ChatGPT призоваха за регулиране на "свръхинтелигентните" изкуствени интелекти с аргумент, че е необходим еквивалент на Международната агенция за атомна енергия, за да се защити човечеството от риск, съобщи TheGuardian.
В кратка бележка, публикувана на сайта на компанията, съоснователите Грег Брокман и Иля Суцкевер, и главният изпълнителен директор Сам Алтман призовават международен регулатор да започне работа по това как да "инспектира системите, да изисква одити, да проверява съответствието със стандартите за безопасност и да налага ограничения върху степента на внедряване и нивата на сигурност", за да се намали "екзистенциалният риск", който подобни системи биха могли да представляват.
"Възможно е в рамките на следващите 10 години системите с изкуствен интелект да надхвърлят нивото на експертните умения в повечето области и да извършват толкова продуктивна дейност, колкото една от най-големите днешни корпорации", пишат те.
"Както по отношение на потенциалните предимства, така и на недостатъците, свръхинтелигентността ще бъде по-мощна от други технологии, с които човечеството е трябвало да се бори в миналото. Можем да имаме по-проспериращо бъдеще, но за да стигнем до него, трябва да управляваме риска. Като се има предвид възможността за екзистенциален риск, не можем просто да реагираме.", подчертават от OpenAI.
В по-краткосрочен план те призовават за "известна степен на координация" между компаниите, работещи най-усилено върху изследванията в областта на изкуствения интелект, за да се гарантира, че разработването на все по-мощни модели се интегрира безпроблемно в обществото, като същевременно се дава приоритет на безопасността.
Тази координация може да се осъществи например чрез проект, ръководен от правителството, или чрез колективно споразумение за ограничаване растежа на възможностите на AI.
От десетилетия изследователи предупреждават за потенциалните рискове, свързани със свръхинтелигентността, но с ускоряването на развитието на AI тези рискове стават все по-осезаеми.
8 категории "катастрофални" и "екзистенциални" рискове
Базираният в САЩ Център за безопасност на изкуствения интелект (CAIS), който работи за "намаляване на рисковете от изкуствения интелект в обществен мащаб", описва 8 категории "катастрофални" и "екзистенциални" рискове, които развитието на изкуствения интелект може да породи.
Докато някои се притесняват, че един мощен AI може напълно да унищожи човечеството, случайно или умишлено, CAIS описва и по-сериозни вреди.
Свят, в който на системите на AI доброволно се възлага все повече работа, може да доведе до това човечеството "да загуби способността си да се самоуправлява и да стане напълно зависимо от машините", а малка група хора, контролиращи мощни системи, може да "превърне AI в централизираща сила"и да доведе до вечна кастова система между управлявани и управляващи.
Ръководителите на OpenAI твърдят, че тези рискове означават, че "хората по света трябва демократично да определят границите и стандартните стойности за системите за AI ", но признават, че "все още не знаем как да разработим такъв механизъм". Въпреки това допълват, че продължаващото разработване на мощни системи си заслужава риска.
"Вярваме, че това ще доведе до един много по-добър свят от този, който можем да си представим днес (вече виждаме първите примери за това в области като образованието, творческата работа и личната продуктивност)", пишат те.
Но същевременно предупреждават, да се спре развитието на тези технологии също може да бъде опасно. "Тъй като плюсовете са толкова огромни, разходите за изграждането му намаляват всяка година, броят на участниците, които го изграждат, бързо се увеличава и той е неразривна част от технологичния път, по който вървим.
Спирането му би изисквало нещо като глобален режим на наблюдение, а няма гаранции, че това ще проработи. Така че трябва да го направим правилно.", допълват от OpenAI.