Трусовете в OpenAI са репутационен риск за Microsoft. Какви ходове има Сатя Надела
Нарастващият дефицит на обществено доверие към OpenAI като неетичен участник в AI надпреварата може да подкопае репутацията на Microsoft
Една от най-важните връзки в областта на изкуствения интелект в момента вероятно е партньорството между Microsoft и OpenAI.
Технологиничният гигатнт превърна технологията на OpenAI в централен елемент от своите предложения за AI, включително всички функции на AI с марката "Copilot" в Office, в асистента за кодиране GitHub Copilot, в личния асистент Copilot, насочен към потребителите, както и в новия Copilot за персонални компютри, обявен в навечерието на конференцията за разработчици Build.
Microsoft също така предлага моделите на OpenAI на своята платформа за изчисления в облак Azure, а повечето приложения за изкуствен интелект, които компаниите са пуснали в пълно производство, са създадени чрез техни данни. И именно чрез продуктите или услугите на Microsoft повечето хора ще взаимодействат с генеративния изкуствен интелект на работа, в училище и у дома, пише в анализ Fortune.
В този момент обаче Microsoft едва ли е съвсем доволна от OpenAI. Стартъпът от Сан Франциско отново е затънал в драма, която засенчи отразяването на всички големи съобщения на Microsoft за изкуствения интелект в Build.
Проблемите този път са за това дали OpenAI умишлено е използвала глас, подобен на актрисата Скарлет Йохансон, за новия си чатбот с изкуствен интелект GPT-4o. От OpenAI твърдят, че всяка прилика между гласа, който наричат Sky, и този на Йохансон е чисто случайна.
Звездата обаче публично оспори твърдението на OpenAI, като заяви, че главният изпълнителен директор Сам Алтман се е свързал с нея през септември, малко преди компанията да дебютира със Sky и е поискал разрешение да използва гласа ѝ. Тя е отказала.
След това Алтман отново се е свързал с нея, за да провери дали ще промени решението си точно преди публичната демонстрация на GPT-4o, в която е използван Sky. Преди Йохансон да отговори, OpenAI дебютира с новия модел.
Хронологията на тази комуникация със сигурност звучи подозрително. Известно е, че Алтман е фен на филма "Тя", в който Йохансон озвучава Саманта, асистентка с изкуствен интелект, която създава връзка с мъж.
Освен това по време на демонстрацията на GPT4-o Алтман публикува думата "her" в X, което е ясна препратка към филма.) Йохансон заяви, че е помолила адвокатите си да се опитат да разберат дали OpenAI е използвала гласа ѝ без нейно разрешение. Междувременно Алтман заяви, че компанията е "спряла" достъпа до гласа на Sky "от уважение към г-жа Йохансон".
Още преди да излязат наяве контактите на OpenAI с Йохансон, около компанията се завихри друга драма.
Ян Лейке, съръководител на екипа, работещ върху начините за контрол на бъдещите свръхмощни системи за изкуствен интелект, подаде оставка миналия четвъртък. Ден по-късно той публикува поредица от постове в X, в които обвини OpenAI, че дава приоритет на "лъскавите продукти" пред "културата на безопасност" и предупреди, че компанията е навлязла в опасна траектория.
Оставката последва по-ранното съобщение, че Иля Суцкевер, съосновател и главен учен на OpenAI, напуска. Той беше част от неуспешните опити на борда на OpenAI, който контролира нестопанската част на компанията, да отстрани Сам Алтман през ноември. Впоследствие заяви публично, че "дълбоко съжалява" за участието си в този неуспешен преврат, но напусна борда като част от споразумението, което върна Алтман на поста.
След като Суцкевер и Лейке си тръгнаха, OpenAI разпусна целия екип "Superalignment", създаден година по-рано под тяхно ръководство и назначи останалите 25 изследователи в други отдели.
Новинарският сайт Vox съобщава, че други специалисти, които наскоро са напуснали OpenAI, споделят опасенията на Лейке, но се страхуват да говорят официално, защото компанията ги кара да подпишат споразумения за прекратяване на трудовите правоотношения, включващи драконовски клаузи за забрана на разгласяване на факти. В противен случай компанията може да си върне всички придобити акции, които бившият служител притежава.
По-късно Сам Алтман се извини за тази клауза и заяви, че не е знаел за съществуването ѝ, като обясни, че бил "смутен", когато е научил за нея. Той заяви, че всички служители трябва да могат да запазят придобитите акции, че компанията никога не се е опитвала да прилага тази разпоредба и че сега актуализира споразуменията за прекратяване на трудовите правоотношения, за да я премахне.
Грег Брокман, президент на OpenAI, също публикува изявление, подписано съвместно с Алтман, в което се обяснява, че компанията вижда най-добрия начин за работа по безопасността на изкуствения интелект като стриктно тестване на системите, които в момента се разработват, а не като теоретично изследване как да се направи безопасен бъдещият по-мощен софтуер за AI.
Това беше бърз обрат за екипа на OpenAI, представен преди по-малко от година с голям успех.
Още през юли 2023 г. OpenAI заяви, че да разбере как да се контролира бъдещият "свръхинтелигентен" изкуствен интелект, е толкова важно за нея, че публично се ангажира да изразходва 20% от цялата изчислителна мощ, осигурена към онзи момент, за новия екип за свръхинтелигентност.
OpenAI дори не е изпълнила това обещание, отбелязва Fortune. Половин дузина информатори, запознати с работата на екипа Superalignment, казват, че исканията за достъп до графични процесори, чиповете, използвани за натоварванията с изкуствен интелект, са били многократно отхвърляни, въпреки че никога не са се доближавали до използването на обещаните 20%.
Без значение от перспективата за свръхинтелигентност, ако една компания поеме голям публичен ангажимент за нещо, а след това просто не го изпълни, това ще накара хората да се замислят за всички други нейни обещания.
И тук отново се връщаме към Microsoft.
Главният изпълнителен директор Сатя Надела успешно ръководи компанията през две големи промени – първата от локални сървъри и персонални компютри към облака, а втората – към настоящия бум на генеративен изкуствен интелект.
Технологичният лидер споделя, че се притеснява от две неща, които могат да застрашат успеха на Microsoft.
Първото е пропускане на следващата голяма технологична вълна. Ето защо той остава свръхнаблюдателен за това, върху което разработчиците работят и искат от софтуерния гигант, а също така следи какво се случва в стартъпите и изследователските лаборатории.
Но другото притеснение е, че Microsoft ще "загуби лиценза си за работа", което Надела определя като социален договор, зависещ от доверието и от това Microsoft да помага за осигуряване на широк икономически растеж в страните, в които работи.
Надела смята, че стъпките в областта на изкуствения интелект и инвестициите за предоставяне на обучение и умения за работа с него във всяко кътче на света са начин да гарантира, че ще запази лиценза си за работа.
Но нарастващият дефицит на обществено доверие в OpenAI може да подкопае другата част от социалния договор. Ако обществеността започне да възприема OpenAI като неетичен участник, репутацията на Microsoft може да претърпи съпътстващи щети.
Компанията вече е изправена пред съдебни искове от художници, автори, творци и издатели, които твърдят, че е работила с OpenAI, за да използва материали, защитени с авторски права, без разрешение за обучение на модели на изкуствен интелект.
Сатя Надела е направил редица други залози за изкуствен интелект, освен OpenAI.
Сред тях са инвестиция от 1,5 млрд. долара и стратегическо партньорство с базираната в Абу Даби технологична компания G42, малка инвестиция във френската Mistral AI и наемане на съоснователя на DeepMind Мустафа Сюлейман и голяма част от екипа му от Inflection AI за създаване на ново подразделение за потребителски изкуствен интелект. Сюлейман беше сред тези, които представиха новите предложения на AI Copilot в Build.
Тези залози са в известен смисъл предпазване от технологичен риск: AI все още е протективна технология. Може да се окаже, че разработчиците ще предпочетат по-малки, по-малко способни, но по-евтини модели, или че технологията с отворен код ще изпревари масовата патентована технология, каквато изгражда OpenAI.
Но това е и застраховка срещу бизнес и репутационен риск. Ръководителите в OpenAI и Microsoft изразяват задоволство от сегашното състояние на партньорството на двете компании. Надела заяви, че OpenAI е предоставила на Microsoft най-ефективния модел на изкуствен интелект с GPT-4, модел, който все още изпреварва конкуренцията – макар и с малко, според някои сравнителни показатели.
По всичко личи, че GPT-5 е близо до въвеждането си. Алтман може би смята, че докато OpenAI продължава да доставя тези модели на Microsoft, тя е златна за нея. Но ако се окаже, че моделите ѝ продължават да идват с голяма доза драматизъм и етично безпокойство, Сатя Надела може и да вземе решение за разграничаане от стартъпа, завършва анализът на Fortune.