Съветът на ЕС постигна окончателно одобрение на Акта за изкуствения интелект – новаторски нормативен акт, който цели да въведе първия цялостен набор от правила за новата технология.

"Приемането на акта за изкуствения интелект е важен етап за Европейския съюз", заяви Матийо Мишел, държавен секретар на Белгия по въпросите на цифровизацията.

"С Акта за изкуствения интелект Европа подчертава значението на доверието, прозрачността и отчетността при работата с новите технологии, като същевременно гарантира, че тази бързо променяща се технология може да процъфтява и да стимулира европейските иновации", добави Мишел, цитиран от CNBC.

Актът за изкуствения интелект прилага основан на риска подход, което означава, че различните приложения на технологията се третират по различен начин в зависимост от заплахите, които представляват за обществото.

Законът забранява приложенията на изкуствения интелект, които се считат за "неприемливи" от гледна точка на нивото на риска.

Формите на неприемливи приложения включват така наречените системи за "социално оценяване", които класират гражданите въз основа на обобщаване и анализ на техните данни, прогнозна дейност и емоционално разпознаване на работното място и в училищата.

Системите на AI с висока степен на риск обхващат автономни превозни средства или медицински изделия, които се оценяват въз основа на рисковете, които представляват за здравето, безопасността и основните права на гражданите. Те включват и приложения във финансовите услуги и образованието, където съществува риск от предубеденост, заложена в алгоритмите на AI.

Междувременно, редица водещи технологични компании, включително Microsoft, Amazon и OpenAI постигнаха знаково международно споразумение за безопасност на изкуствения интелект на среща на върха в Сеул, съобщи CNBC.

В рамките на споразумението компаниите от държави, сред които САЩ, Китай, Канада, Великобритания, Франция, Южна Корея и Обединените арабски емирства, поемат доброволни ангажименти за гарантиране на безопасното разработване на най-модерните си модели на изкуствен интелект.

Там, където все още не са го направили, всеки от създателите на модели ще публикува рамки за безопасност, в които ще посочва как ще измерва рисковете на своите авангардни модели, като например ще проучва риска от злоупотреба с технологията от злонамерени участници.

Тези рамки ще включват "червени линии" за технологичните компании, определящи видовете рискове, свързани с граничните системи за AI, които ще се считат за "недопустими".

Тези рискове включват, но не се ограничават до автоматизирани кибератаки и заплаха от биологично оръжие. При такива екстремни обстоятелства компаниите ще въвеждат "изключвател", който ще им позволи да прекратят разработването на своите модели AI, ако не могат да гарантират намаляване на тези рискове.

"За първи път в света толкова много водещи компании за изкуствен интелект от толкова различни части на света се съгласяват да поемат едни и същи ангажименти по отношение на безопасността ", заяви Риши Сунак, министър-председател на Обединеното кралство.

"Тези ангажименти гарантират, че водещите световни компании ще осигурят прозрачност и отчетност на плановете за разработване на безопасен изкуствен интелект", допълни той.

Договореният във вторник пакт разширява предишния набор от ангажименти, поети от компаниите, участващи в разработването на софтуер за генеративен изкуствен интелект, на срещата на високо равнище за безопасност на изкуствения интелект в Блетчли Парк, Англия, през ноември миналата година.

Участниците се съгласиха да получат информация за тези рискове от "доверени участници", включително правителствата на техните държави, ако е необходимо, преди да ги публикуват на следващата среща на върха за действия в областта на AI във Франция, предвидена за началото на 2025 г.

Ангажиментите, договорени днес, се отнасят само за така наречените "гранични" модели. Този термин описва технологията, която стои зад генеративните системи за AI като GPT на OpenAI, която захранва популярния ChatGPT.

Откакто той беше представен за първи път през ноември 2022 г., регулаторите и технологичните лидери са все по-загрижени за рисковете, свързани с усъвършенстваните системи за изкуствен интелект, способни да генерират текстово и визуално съдържание наравно с хората или по-добре от тях, допълва CNBC.

За разлика от ЕС и одобреният Акт за изкуствен интелект, Обединеното кралство все още не е предложило официални закони за технологията, като вместо това е избрало "лек" подход към регулирането, който включва прилагането на съществуващи закони от регулаторните органи. Правителството наскоро заяви, че ще обмисли законодателно уреждане на граничните модели в бъдеще, но не се ангажира със срокове за официални закони.