OpenAI разследва дали китайският стартъп за изкуствен интелект DeepSeek е обучил новия си чатбот чрез многократни запитвания към моделите ѝ.

Базираната в Силициевата долина компания заяви, че е наблюдавала различни опити на китайски структури да извличат големи обеми данни от нейните инструменти, вероятно за да обучават свои собствени модели в технически процес, наречен дестилация.

OpenAI заяви, че е забранила акаунтите, за които подозира, че дестилират моделите ѝ, и е работила с Microsoft - основен нейн партньор, който хоства моделите ѝ - за идентифициране на субектите, които стоят зад опитите.

DeepSeek е сред тези, които OpenAI проверява, съобщава The Wall Street Journal.

„Изключително важно е, че работим в тясно сътрудничество с правителството на САЩ, за да защитим по най-добрия начин най-способните модели от усилията на противници и конкуренти да завладеят американската технология“, казва говорител на OpenAI пред WSJ.

„Базираните в Китай компании „постоянно се опитват да дестилират моделите на водещите американски компании за изкуствен интелект.“

Подозренията на OpenAI повдигат перспективата, че представянето на модела на DeepSeek, за който се твърди, че е на едно ниво с някои от най-добрите в света, може да е по-малко впечатляващо, отколкото първоначално изглеждаше. Това също така повдига въпроса, че компаниите, които харчат стотици милиони долари за обучение на най-съвременни модели, може да имат проблеми с това да не позволят на конкурентите си да копират работата им.

Някои потребители на DeepSeek са забелязали, че чатботът понякога отговаря с текст, който изглежда е взет от OpenAI.

DeepSeek предизвика пазарно цунами в понеделник, докато инвеститорите усвояваха новината, че новият му модел R1 изглежда се представя добре, въпреки че е обучен с по-малко сложни чипове - нещо, което се предполагаше, че е трудно или невъзможно да се направи.

Дестилацията се използва за разработване на по-малки и по-ефективни модели на изкуствен интелект чрез обучението им върху база данни с отговори от по-голям и по-скъп модел. Тя ефективно свежда опита на големия модел до по-малък, като същевременно му позволява да имитира разсъжденията.

Въпреки че OpenAI позволява на бизнес потребителите да дестилират моделите ѝ в рамките на платформата, условията за ползване забраняват да се взимат резултатите от моделите и използват за обучение на друг конкурентен модел.

Във вторник Дейвид Сакс, министърът по въпросите на изкуствения интелект на президента Тръмп, изрично обвини DeepSeek, че използва дестилация на моделите на OpenAI, за да изгради свои собствени.

„Има съществени доказателства, че DeepSeek е дестилирала знанията от моделите на OpenAI“, каза Сакс, ветеран от Силициевата долина. „И не мисля, че OpenAI е много щастлива от това.“

DeepSeek заяви, че е успяла да постигне своите високопроизводителни модели на изкуствен интелект без достъп до най-модерните чипове за изкуствен интелект, като е използвала интелигентно програмиране, например като е изстисквала повече енергия от по-малко мощни чипове.

Компанията също така призна, че е използвала техниката за дестилация, но при свои собствени модели. В скорошен изследователски документ китайският стартъп твърди, че е използвал дестилация, за да вземе резултатите от най-мощния си модел R1 и да обучи по-малки модели, които показват сходни възможности за разсъждение.