Компаниите за изкуствен интелект в Китай са подложени на правителствен преглед на своите големи езикови модели, чиято цел е да се гарантира, че те „въплъщават основните социалистически ценности“, съобщава Financial Times.

Прегледът се извършва от Администрацията за киберпространство на Китай (CAC), главния правителствен интернет регулатор, и ще обхване играчи от целия спектър - от технологични гиганти като ByteDance и Alibaba до малки стартъпи.

Моделите с изкуствен интелект ще бъдат тествани от местните служители на CAC за техните отговори на различни въпроси, много от които са свързани с политически чувствителни теми и китайския президент Си Дзинпин. Ще бъдат прегледани и данните за обучението на модела и процесите за безопасност.

Анонимен източник от компания за изкуствен интелект, базирана в Ханджоу, който е разговарял с FT, заявява, че техният модел не е преминал първия кръг на тестване по неясни причини. Те са преминали едва от втория път след месеци на „гадаене и коригиране“.

Последните усилия на CAC показват как Пекин се опитва да балансира между това да настигне САЩ в областта на GenAI и същевременно да следи отблизо развитието на технологията, като гарантира, че генерираното от AI съдържание спазва строгите му политики за цензура в интернет.

Страната беше сред първите, които финализираха правилата, регулиращи генеративния изкуствен интелект миналата година, включително изискването услугите да се придържат към „основните ценности на социализма“ и да не генерират „незаконно“ съдържание.

Изпълнението на цензурните политики изисква „филтриране на сигурността“ и е усложнено, тъй като китайските AI все още се обучават на значително количество съдържание на английски език, коментират пред изданието инженери и представители на индустрията. Филтрирането се извършва чрез премахване на „проблемната информация“ от данните за обучение на моделите на AI и след това чрез създаване на база данни с думи и фрази, които са чувствителни. Регулациите са довели до това, че най-популярните чатботове в страната често отказват да отговарят на въпроси по чувствителни теми, като например протестите на площад Тянанмън през 1989 г.

По време на тестването на CAC обаче има ограничения за броя на въпросите, които големите езикови модели могат да откажат направо, така че те трябва да могат да генерират „политически коректни отговори“ на чувствителни въпроси. Експерт по изкуствен интелект, работещ по чатбот в Китай, коментира, че е трудно да се попречи на големите езикови модели да генерират цялото потенциално вредно съдържание, затова вместо това се изграждат допълнителен слой на системата, който замества проблемните отговори в реално време.

Регулациите, както и санкциите на САЩ, които ограничиха достъпа до чипове, използвани за обучение на AI, затрудниха китайските компании да стартират свои собствени услуги, подобни на ChatGPT. Китай обаче доминира в световната надпревара по отношение на патентите за генеративен изкуствен интелект.