Как ще изглежда битката на лейбъристите с ключовите AI играчи?
Новото британско правителство е изправено пред деликатен проблем – да постигне баланс между строгите правила и възможностите за иновации
Великобритания ще въведе първия в историята си закон за изкуствения интелект - но новото лейбъристко правителство на министър-председателя Киър Стармър е изправено пред деликатен проблем за постигане на баланс при формирането на достатъчно строги правила, които същевременно да позволяват иновации.
В реч, произнесена от крал Чарлз III от името на администрацията на Стармър, правителството заяви в сряда, че „ще се стреми да създаде подходящо законодателство, което да постави изисквания към тези, които разработват най-мощните модели на изкуствен интелект“. Но в нея не беше споменат реален законопроект за изкуствения интелект, който много ръководители и коментатори от технологичната индустрия очакват.
В Европейския съюз властите въведоха мащабен закон, известен като Закон за изкуствения интелект (AI Act), който подлага на много по-строги ограничения компаниите, разработващи и използващи технологията. Много технологични компании - както големи, така и малки - се надяват, че Обединеното кралство няма да тръгне по същия път, прилагайки правила, които те смятат за твърде тежки.
Как може да изглежда законопроектът за AI в Обединеното кралство
Очаква се, че лейбъристите все пак ще въведат официални правила за AI, както партията заложи в предизборния си манифест. Правителството на Стармър обеща да въведе „задължителна регулация за шепата компании, които разработват най-мощните модели на AI“, както и законодателство, което забранява дълбоките фалшификати със сексуално съдържание. Вземайки на прицел най-мощните модели, лейбъристите ще наложат по-строги ограничения на разработчици като OpenAI, Microsoft, Google и Amazon, както и на стартиращи предприятия в сферата, сред които Anthropic, Cohere и Mistral.
„Най-големите играчи в областта на AI вероятно ще бъдат подложени на по-строг контрол от преди“, коментира пред CNBC Мат Калкинс, главен изпълнителен директор на софтуерната компания Appian. „Това, от което се нуждаем, е благоприятна среда за широкообхватни иновации, която се управлява от ясна регулаторна рамка, осигуряваща справедливи възможности и прозрачност за всички.“
Люис Лиу, ръководител на отдела за изкуствен интелект в доставчика на софтуер за управление на договори Sirion, пък предупреждава, че правителството трябва да избягва да използва „подход на широк удар с чук, за да регулира всеки отделен случай на употреба“.
„Случаи на употреба като клиничната диагностика - които включват чувствителни медицински данни - не трябва да бъдат хвърляни в една и съща кофа с неща като корпоративния софтуер“, казва той. „Обединеното кралство има възможност да се справи с този нюанс в огромна полза за своя технологичен сектор“.
Лиу добавя, че досега е видял „положителни индикации“ за плановете на лейбъристите за AI. Но законодателството в областта ще бъде в контраст с това на предшественика на Стармър. При бившия министър-председател Риши Сунак кабинетът беше избрал лек подход към технологията, стремейки се да прилага съществуващите правила. В политически документ от февруарио консервативното правителство заяви, че твърде скорошното въвеждане на задължителни мерки може „да не успее да се справи ефективно с рисковете, бързо да остарее или да задуши иновациите“.
В противовес на тази позиция, през февруари новият министър на технологиите на Обединеното кралство Питър Кайл, тогава министът в сянка, посочи, че лейбъристите ще задължат със закон компаниите да споделят с правителството тестови данни за безопасността на своите модели.
„Ще задължим със закон резултатите от тези тестове да бъдат предоставяни на правителството“, каза тогава Кайл в интервю за BBC.
Правителството на Сунак беше осигурило споразумения от технологичните компании за споделяне на информация за тестовете за безопасност с Института за безопасност на изкуствения интелект - подкрепян от държавата орган, който тества усъвършенствани AI системи. Това обаче беше изискване на доброволна основа.
Риск от потискане на иновациите
Правителството на Обединеното кралство иска да избегне твърде силното налагане на правила за AI до степен, в която това ще попречи на иновациите. Лейбъристите отбелязаха в своя манифест, че искат да „подкрепят разнообразни бизнес модели, които въвеждат иновации и нови продукти на пазара“.
„Всяко регулиране ще трябва да бъде нюансирано, като се разпределят съответно отговорностите“, посочва в тази връзка Захра Бахролоуми, главен изпълнителен директор за Великобритания и Ирландия на Salesforce, като добавя, че приветства призива на правителствата за „подходящо законодателство“.
Матю Хулихан, старши директор по правителствените въпроси в Cisco, от своя страна, казва, че всички правила за AI ще трябва да бъдат „съсредоточени върху обмислен, основан на риска подход“.
Други предложения, които вече са били представени от британски политици, предлагат известна представа за това какво може да бъде включено в законопроекта за AI на лейбъристите.
Британският законодател Крис Холмс, консервативен депутат, част от горната камара на парламента, миналата година внесе законопроект с предложение за регулиране на технологията. Законопроектът премина третото си четене през май, като по този начин беше прехвърлен в долната камара на парламента. Той предлага някои идеи за това как лейбъристите биха могли да се опитат да създадат свое собствено законодателство в сферата.
Според него дружествата ще трябва да предоставят на Органа за изкуствен интелект данни и интелектуална собственост на трети страни, използвани при обучението на техните модели, и да гарантират, че всички те се използват със съгласието на първоначалния източник. Това донякъде наподобява дейността на Службата за изкуствен интелект на ЕС, която отговаря за надзора на разработването на усъвършенствани модели.
Друго предложение на Холмс е компаниите да са задължени да назначават служители по AI, които да имат за задача да гарантират безопасното, етично и безпристрастно използване на технологията от предприятията, както и да гарантират, че данните, използвани във всеки модел, са безпристрастни.
Сравнение с други регулаторни рамки
Въз основа на това, което лейбъристите са обещали досега, всеки такъв закон неизбежно ще бъде „много далеч от широкообхватния обхват на Закона за изкуствения интелект на ЕС“, коментира пред CNBC Матю Холман, партньор в адвокатската кантора Cripps.
По думите му вместо да изисква от създателите на модели за изкуствен интелект прекалено строги оповестявания, Обединеното кралство по-скоро ще намери „среден път“. Например, правителството може да изисква от разработчиците да споделят върху какво работят на закрити заседания на Института за безопасност на AI, но без да разкриват търговски тайни или изходен код.
По време на Лондонската технологична седмица настоящият министър на технологиите Кайл заяви, че лейбъристите няма да приемат толкова строг закон като този на ЕС, защото не искат да възпрепятстват иновациите или да възпират инвестициите на големите разработчици. Но дори и така, Великобритания ще бъде поне на крачка пред САЩ, които понастоящем нямат федерално законодателство за технологията.
Междувременно в Китай регулацията е по-строга както от ЕС, така и от всяко законодателство, което Обединеното кралство вероятно ще предложи. Миналата година китайските регулатори финализираха правилата, регулиращи генеративния AI, насочени към премахване на незаконното съдържание и засилване на защитата на сигурността.
Лиу от Sirion посочва, че едно от нещата, които се надява правителството да не направи, е да ограничи моделите на AI с отворен код.
„От съществено значение е новите правила за AI на Обединеното кралство да не задушават отворения код и да не попадат в капана на регулаторното завладяване“, казва той. „Има огромна разлика между вредата, създадена от голям езиков модел като ChatGPT на OpenAI, и специфичните адаптирани модели с отворен код, използвани от стартиращите компании за решаване на конкретен проблем.“
Херман Нарула, главен изпълнителен директор на компанията за изграждане на рискови проекти в метавселената Improbable, е съгласен, че ограничаването на иновациите в областта на AI с отворен код би било лоша идея.
„Необходими са нови действия от страна на правителството, но те трябва да се съсредоточат върху създаването на жизнеспособен свят за компаниите за AI с отворен код, които са необходими, за да се предотвратят монополите“, категоричен е Нарула.