Компаниите, които използват инструменти с генеративен изкуствен интелект като ChatGPT, ще трябва да оповестяват всички материали, защитени с авторски права, използвани за разработването на техните системи.

Това гласи споразумение на ЕС, което може да проправи пътя към първите в света всеобхватни закони, регулиращи тази технология, съобщава Reuters.

Преди близо две години Европейската комисия започна да изготвя проект на Закон за изкуствения интелект, чиято цел е да регулира нововъзникващите AI технологии, които преживяха бум на инвестициите и популярността след пускането на чатбота ChatGPT на OpenAI.

Членовете на Европейския парламент са се обединили около позицията да придвижат проекта до следващ етап - тристранна среща, по време на която законодателите на ЕС и държавите членки ще уточнят окончателните детайли на законопроекта, посочва още информационната агенция.

Испания иска оценка на риска от ChatGPT, САЩ проучват мерки за контролХодът на италианския регулатор да забрани използването на ChatGPT предизвика интереса и на други органи за защита на личните данни в Европа


Съгласно предложенията инструментите, базирани на изкуствен интелект, ще бъдат класифицирани според нивото на възприемания риск, свързан с тях - от минимален, през ограничен, до висок и неприемлив. Областите, в които ще се измерва въпросния риск, могат да включват биометрично наблюдение, разпространение на дезинформация или дискриминационен език.

Въпреки че високорисковите инструменти няма да бъдат забранени, тези, които ги използват, ще трябва да бъдат изключително прозрачни в своите операции, посочва още Reuters и добавя:

„Компаниите, които използват инструменти с генеративен изкуствен интелект като ChatGPT или генератора на изображения Midjourney също така ще трябва да разкрият всички материали, защитени с авторски права, използвани за разработването на техните системи“.

Според източник, запознат с обсъжданията и цитиран от Reuters, тази разпоредба е допълнение към готвеното европейско законодателство в сферата на изкуствения интелект, изготвена през последните две седмици. По думите му някои членове на ЕК първоначално са предложили да се забрани изобщо използването на материали, защитени с авторски права, за обучение на генеративни модели, но това предложение е било загърбено в полза на изискването за прозрачност.

"На фона на консервативните желания за повече наблюдение и левите фантазии за свръхрегулиране ЕП намери солиден компромис, който ще регулира AI пропорционално, ще защитава правата на гражданите и ще насърчава иновациите, стимулирайки икономиката", заявява евродепутатът Свеня Хан пред Reuters.

Какво предвижда AI Act

Очаква се Законът за изкуствения интелект (AI Act) да бъде знаков законодателен акт на ЕС, който урежда всеобхватно използването на изкуствен интелект в Европа. По него се работи повече от две години, като законодателите предвиждат правителствата и компаниите, които използват AI инструменти, да покриват различни изисквания според нивото риск (както стана ясно, скалата е от ниско до неприемливо).

OpenAI предлага мерки за защита в Италия след забраната на ChatGPT OpenAI обеща да бъде по-прозрачна по отношение на начина, по който обработва данните на потребителите и проверява възрастта им


Законът е широкообхватен и след влизането си в сила ще регулира всеки, който предоставя продукт или услуга, използващи изкуствен интелект. Той ще засяга системи, които могат да генерират резултати като съдържание, прогнози, препоръки или решения, влияещи на обществената среда, посочва още Reuters.

Важен аспект на законодателството е, че освен частната употреба на изкуствен интелект, той ще регулира и използването на технологията в публичния сектор и правоприлагането и ще работи в синхрон с други закони като Общия регламент за защита на данните (GDPR).

Структурите, които използват AI системи, можещи да взаимодействат с хора и да създават т.нар. deep fake клипове, ще бъдат изправени пред строги изисквания за прозрачност.

Разбира се, това поражда въпроса кои са високорисковите AI софтуери. ЕК дава пример с платформите, използвани в критичната инфраструктура, правоприлагането или образованието. Тази група е едно ниво под "неприемливи" и следователно не е напълно забранена, но организациите ще са задължени да извършват строги оценки на риска, да регистрират дейностите си и да предоставят данни на контролните органи.