Когато DeepSeek, Alibaba и други китайски технологични компании пуснаха в действие своите AI модели, западни изследователи бързо забелязаха, че те заобикалят теми, критикуващи Китайската комунистическа партия.

По-късно американски официални лица потвърдиха, че инструментите са били разработени така, че да отразяват гледните точки на Пекин, което породи опасения за цензура и пристрастност.

Американски лидери в изкуствения интелект като OpenAI изтъкнаха това като оправдание за бързото развитие на своите технологии, без прекалено много регулации или надзор. Както главният отговорник по глобалните въпроси на OpenAI Крис Лихейн написа LinkedIn миналия месец, има състезание между „демократичния AI, ръководен от САЩ, и автократичния в Китай, ръководен от комунисти“.

На този фон, президентът на САЩ Доналд Тръмп подписа в сряда нова изпълнителна заповед, която забранява сключването на правителствени договори с т. нар. „буден AI“ и модели, които не са „идеологически неутрални“, съобщава TechCrunch.

Заповедта визира още разнообразието, равенството и приобщаването (DEI), като го нарича „широко разпространена и разрушителна“ идеология, която може да „наруши качеството и точността на резултатите“.

По-конкретно, в нея се говори за информация за раса или пол, манипулиране на расовото или сексуалното представяне, критична расова теория, транссексуалност, несъзнателни предубеждения, системен расизъм.

Експерти обаче предупреждават, че тя може да създаде смразяващ ефект върху разработчиците, които да се почувстват под натиск да приведат резултатите от моделите и наборите от данни в съответствие с реториката на Белия дом, за да осигурят федерални долари за бизнеса.

Заповедта е издадена в същия ден, когато Белият дом публикува „Плана за действие за изкуствения интелект“ на Тръмп, изместващ националните приоритети към фокус върху изграждането на инфраструктура за изкуствен интелект, намаляване на бюрокрацията за технологичните компании, укрепване на националната сигурност и конкуренция с Китай.

Тя нарежда на директора на Службата за управление и бюджет, и на администраторите на Федералната политика за обществени поръчки, на Общите служби и директора на Службата за научна и технологична политика да издадат насоки за другите агенции как да се съобразят с тях.

„Ще подпиша заповед, с която ще забраня на федералното правителство да възлага поръчки за технологии за AI, наситени с партийни пристрастия или идеологически програми, като например критичната расова теория, което е нелепо. И оттук нататък правителството на САЩ ще се занимава само с AI, който преследва истината, справедливостта и строгата безпристрастност.”, заяви Тръмп в сряда по време на събитие за изкуствен интелект, организирано от подкаста All-In и форума Hill & Valley.

Определянето на това какво е безпристрастно или обективно е едно от многото предизвикателства пред заповедта.

Филип Сърджънт, старши преподавател по приложна лингвистика в Open University, заяви пред TechCrunch, че нищо никога не може да бъде обективно. „Един от основните постулати на социолингвистиката е, че езикът никога не е неутрален. Така че идеята, че някога може да се постигне чиста обективност, е фантазия.“, допълва той.

Освен това, идеологията на администрацията не отразява убежденията и ценностите на всички американци. Тръмп многократно се е опитвал да премахне финансирането на инициативи за климата, образованието, общественото радио и телевизия, научните изследвания, субсидиите за социални услуги, програмите за селското стопанство и утвърждаване на пола, като често е представял тези инициативи като примери за политически пристрастни държавни разходи.

Определенията за „търсене на истината“ и „идеологическа неутралност“ в заповедта, публикувана в сряда, са неясни в някои отношения и конкретни в други. Докато „търсенето на истината“ се определя като „ приоритет на историческата точност, научно изследване и обективност“, то „идеологическата неутралност“ се определя като „непартийни инструменти, които не манипулират отговорите в полза на идеологически догми като DEI“.

Тези определения оставят възможност за широко тълкуване, както и за потенциален натиск. Компаниите за изкуствен интелект настояват за по-малко ограничения върху начина, по който работят. И макар изпълнителната заповед да няма силата на закон, компаниите, които ще са на границата на нейния обхват, могат да се окажат обект на променящите се приоритети на Белия дом.

Миналата седмица OpenAI, Anthropic, Google и xAI подписаха договори с Министерството на отбраната за получаване на до 200 милиона долара за разработване на процеси с агентичен изкуствен интелект, които да се справят с критични предизвикателства за националната сигурност. Не е ясно коя от тези компании е най-добре позиционирана да спечели от завоведта и дали ще се съобрази с нея.

TechCrunch потърси всяка една от тях за коментар и към момента няма отговор.

Въпреки че проявява собствени пристрастия, xAI може да се окаже най-съгласна със заповедта - поне на този ранен етап. Илон Мъск позиционира Grok, чатбота на xAI, като най-добрия търсач на истината, „по-малко пристрастен“.

Системните подкани към инструмента го насочват да се съобразява с основните авторитети и медии, да търси противоположна информация, дори ако тя е политически некоректна, и дори да се позовава на собствените възгледи на Мъск по спорни теми. През последните месеци Grok дори изрича антисемитски коментари и възхвалява Хитлер в X, наред с омразни, расистки и женомразки публикации.

Марк Лемли, професор по право в Станфордския университет, заяви пред TechCrunch, че изпълнителната заповед „очевидно е замислена като дискриминация по отношение на гледната точка, тъй като правителството току-що подписа договор с Grok, известен още като „MechaHitler“.

Наред с финансирането на xAI от Министерството на отбраната, компанията обяви, че „Grok for Government“ е добавен към графика на General Services Administration, което означава, че продуктите на xAI вече са достъпни за закупуване във всяка правителствена служба и агенция.

„Правилният въпрос е следният: ще забранят ли Grok, изкуствения интелект, с който току-що са подписали голям договор, защото е умишлено създаден да дава политически отговори? Ако не, то той очевидно е създаден с цел да дискриминира определена гледна точка“, допълва професорът.

Както доказват подсказките в собствената система на Grok, резултатите от моделите могат да са отражение както на хората, които създават технологията, така и на данните, върху които е обучен изкуственият интелект.

В някои случаи прекалената предпазливост сред разработчиците и AI, обучен върху интернет съдържание, което насърчава ценности като приобщаване, са довели до изкривени резултати от моделите. Например миналата година Google попадна под обстрел, след като чатботът Gemini показа чернокож Джордж Вашингтон и нацисти, подкрепящи расовото разнообразие, което в заповедта на Тръмп се посочва като пример за заразени с DEI модели на AI.

Едно от опасенията на експертите е, че след тази заповед компаниите за изкуствен интелект активно ще преработват данните за обучение, за да се придържат към партийната линия.

В някои от изявленията на Мъск няколко седмици преди пускането на Grok 4, например се казва, че xAI ще използва новия модел и неговите усъвършенствани възможности за разсъждение, за да „пренапише целия корпус на човешкото знание, като добави липсваща информация и изтрие грешките.“ Това може ще постави Мъск в позиция да преценява кое е вярно и кое не, което може да има огромни последици за начина, по който се получава достъп до информация.

Консерваторът Дейвид Сакс, предприемачът и инвеститорът, когото Тръмп назначи за ръководител по политиките на изкуствения интелект, открито изрази опасенията си относно „будния изкуствен интелект“ в подкаста All-In.

Той обвини създателите на продукти с AI, че са ги натоварили с леви ценности, посочвайки аргументи като защита свободата на словото и предупреди за тенденцията за централизиран идеологически контрол в цифровите платформи.

Проблемът, казват експертите, е, че няма една-единствена истина. Постигането на безпристрастни или неутрални резултати е невъзможно, особено в днешния свят, в който дори фактите са политизирани.

„Ако резултатите, които AI произвежда, казват, че науката за климата е правилна, това лява пристрастност ли е?“ пита Сърджънт. „Някои хора твърдят, за да си обективен, трябва да дадеш и на двете страни право на отговор, дори ако аргументите на едната нямат никаква тежест.“, добавя експертът.