OpenAI сформира международен екип от лобисти, за да повлияе на политиците и регулаторните органи, които засилват контрола си върху мощния изкуствен интелект.

Базираният в Сан Франциско стартъп потвърди пред Financial Times, че е увеличил броя на служителите в своя екип по глобалните въпроси от трима в началото на 2023 г. на 35 сега. Компанията има за цел да увеличи броя им до 50 до края на годината.

Новината идва в момент, когато правителствата проучват и обсъждат законодателство относно безопасността на изкуствения интелект, което рискува да ограничи растежа на компанията и развитието на нейните авангардни модели, които са в основата на продукти като ChatGPT.

"Ние не подхождаме от гледна точка на това, че просто трябва да влезем там и да отменим регулациите. ... защото нашата цел не е да максимизираме печалбата; нашата цел е да се уверим, че AGI е от полза за цялото човечество", казва Анна Маканджу, вицепрезидент по правителствените въпроси на OpenAI, като има предвид изкуствения общ интелект или момента, в който машините ще имат когнитивни способности, еквивалентни на тези на хората.

Макар и да съставлява малка част от 1200-те служители, отделът за глобални въпроси е най-международното звено на компанията, стратегически позиционирано на места, където законодателството за AI е напреднало. Това включва служители в Белгия, Обединеното кралство, Ирландия, Франция, Сингапур, Индия, Бразилия и САЩ.

Въпреки това OpenAI изостава от конкурентите си в областта на големите технологии в тази област.

Според публичните отчети в САЩ през първото тримесечие на тази година Meta е похарчила рекордните 7,6 млн. долара за сътрудничество с правителството на САЩ, Google - 3,1 млн. долара, а OpenAI едва 340 000 долара. Що се отнася до застъпничеството за AI, Meta е посочила 15 лобисти, Google – петима, а OpenAI двама.

"Когато започнахме, ChatGPT имаше 100 млн. потребители, но OpenAI разполагаше с трима души, които да се занимават с обществена политика", казва Дейвид Робинсън, ръководител на планирането на политиката, който се присъедини към стартъпа през май миналата година след кариера в академичните среди и консултации за Белия дом относно политиката му в областта на AI.

"Беше се стигнало буквално дотам, че ако някой на високо ниво искаше да разговаря, но нямаше кой да вдигне телефона", допълва той.

Отделът за глобални въпроси на OpenAI обаче не се занимава с някои от най-фрапиращите регулаторни казуси. Тази задача е поверена на правния екип, който се занимава с проверката на британските и американските регулаторни органи на съюза с Microsoft на стойност 18 млрд. долара; с разследването на Комисията по ценните книжа и фондовите борси на САЩ дали главният изпълнителен директор Сам Алтман е подвел инвеститорите по време на краткото си отстраняване от борда през ноември; както и с разследването на Федералната търговска комисия на САЩ за защита на потребителите в компанията.

Лобистите се фокусират върху разпространението на законодателството в областта на изкуствения интелект. Обединеното кралство, САЩ и Сингапур са сред многото държави, които се занимават с това как да регулират AI и се консултират отблизо с OpenAI и други технологични компании по отношение на предложените разпоредби.

Според трима източници, участвали в преговорите, OpenAI е сред компаниите за изкуствен интелект, които са твърдели, че някои от моделите не трябва да се разглеждат като такива, които представляват "висок риск" в ранните проекти на закона, и следователно ще подлежат на по-строги правила.

Въпреки този натиск, най-способните модели на компанията ще попаднат в обхвата на закона.

OpenAI също така е възразила срещу стремежа на ЕС да проучи всички данни, предоставени на нейните модели за обучение. Компанията заяви пред FT, че данните от предварителното обучение, използвани за предоставяне на големи езикови модели, трябва да бъдат извън обхвата на регламента, тъй като са лош начин за разбиране на резултатите на системата за изкуствен интелект.

Вместо това тя предлага фокусът да бъде върху данните след обучението, които се използват за прецизиране на моделите за конкретна задача.

ЕС реши, че за високорисковите системи за изкуствен интелект регулаторите все пак могат да поискат достъп до данните от обучението, за да се уверят, че няма грешки и пристрастия.

След като законът на ЕС беше одобрен, OpenAI нае Крис Лъхейн, работил за Бил Клинтън, президентската кампания на Ал Гор и бивш ръководител на политиката на Airbnb като вицепрезидент по обществените работи.

OpenAI наскоро привлече и Якоб Кухарчик, бивш ръководител в Meta. Сандро Джанела, ръководител на отдела за европейска политика и партньорства, се присъедини през юни миналата година, след като е работил в Google и Stripe, а Джеймс Хайрстън, ръководител на отдела за международна политика и партньорства, се присъедини от Meta през май миналата година.

Компанията наскоро участва в поредица от дискусии с политици в САЩ и на други пазари относно модела на OpenAI Voice Engine, който може да клонира и създава персонализирани гласове, което доведе до ограничаване на плановете за пускане на пазара след опасения относно рисковете от използването му в контекста на глобалните избори тази година.

Екипът провежда семинари в държави, в които тази година предстоят избори, като Мексико и Индия, като публикува насоки за дезинформация. В автократичните държави OpenAI предоставя индивидуален достъп до моделите си на "доверени лица" в области, в които смята, че не е безопасно да пуска продуктите.

Правителствен служител, работещ в тясно сътрудничество с OpenAI, заяви, че друг проблем за компанията е да гарантира, че всички правила ще бъдат гъвкави в бъдеще и ще остареят с новите научни или технологични постижения. OpenAI се надява да се справи с някои остатъци от епохата на социалните медии, която е довела до "общо недоверие към компаниите от Силициевата долина".

"Прекарваме много време, за да сме сигурни, че хората разбират, че тази технология е съвсем различна и регулаторните интервенции, които имат смисъл за нея, ще бъдат много различни.", допълва Маканджу.

Някои представители на индустрията обаче критикуват разширяването на лобирането на OpenAI.

"Първоначално OpenAI набираше хора, които са дълбоко ангажирани с политиката за изкуствения интелект, и специалисти, докато сега те просто наемат обикновени технологични лобисти, което е много различна стратегия", казва един от източниците, участвали пряко с OpenAI в създаването на законодателство.

"Те просто искат да повлияят на законодателите по начин, по който големите технологии го правят повече от десетилетие."

Робинсън, ръководител на отдела за планиране на OpenAI, заяви, че екипът по глобалните въпроси има по-амбициозни цели.

"Мисията е безопасна и широкополезна, а какво означава това? Означава да създадем закони, които не само ни позволяват да правим иновации и да предоставяме полезни технологии, но и да живеем в свят с безопасни технологии.", допълва той.