Преди 12 месеца би било немислимо свалянето на Сам Алтман от OpenAI да се превърне в глобална новина, сравнява с легендарното уволнение на Стив Джобс от Apple, но ето ни тук.

След пет дни корпоративна драма, каквато технологичната индустрия не е виждала от процеса срещу Сам Банкман-Фрийд, сега основният въпрос е какво е бъдещето на социалното движение, известно като ефективен алтруизъм (което, междудругото, бившият криптобос и основател на FTX също подкрепяше).

През последните няколко години въпросното движение разделя служители и ръководители на свързани с изкуствения интелект компании в Силициевата долина.

Трусът в OpenAI, и по-конкретно триумфалното завръщане на Сам Алтман на поста главен изпълнителен директор след внезапното му отстраняване, нанесе нов удар на ефективните алтруисти, които вярват, че внимателно изработените системи с изкуствен интелект, обучени с правилните човешки ценности, ще доведат до Златен век. В противен случай може да има апокалиптични последици.

Стартъпът OpenAI, който пусна ChatGPT преди година, е формиран отчасти на принципите на този ефективен алтруизъм - широка социална и морална философия, която влияе върху изследователската общност на AI в Силициевата долина и извън нея, посочва The Wall Street Journal.

Някои последователи на движението живеят в частни групови домове, където обсъждат идеи, участват във философски дебати или играят шах за четирима. Движението включва хора, посветени на правата на животните и изменението на климата, черпейки идеи от рационалистични философи, математици и предсказатели на бъдещето, разказва WSJ.

Подсилени от стотици милиони долари дарения от технологични гиганти, ефективните алтруисти вярват, че стремглавото втурване към изкуствения интелект може да унищожи човечеството. Те предпочитат безопасността пред скоростта за разработване на AI.

Движението, което включва хора, помогнали за оформянето на бума на генеративния изкуствен интелект, споделя вярата в правенето на добро – дори ако това означава просто да се правят много пари, които да се дават на достойни реципиенти, коментира още WSJ.

Дивата седмица на OpenAI: Обрати като в сценарий от ранна версия на ChatGPTДраматичните обрати се развиха дни след като OpenAI проведе първата си конференция за разработчици, на която представи нови версии на ChatGPT

Според източници на изданието, Алтман, който беше уволнен от OpenAI миналия петък, се e сблъскал с главния учен на компанията и член на борда Иля Суцкевер по проблеми, свързани с безопасността на изкуствения интелект, които отразяват опасенията на ефективните алтруисти.

В преврата срещу Алтман участваха още членовете на борда Таша Макколи, член и на борда на благотворителната организация за ефективен алтруизъм Effective Ventures, и Хелън Тонер, изпълнителен директор в Центъра за сигурност и нововъзникващи технологии на университета в Джорджтаун, подкрепян от филантропи, посветени на каузи, свързани с ефективния алтруизъм. Те съставляват три от четирите гласа, необходими за свалянето на Алтман.

Компанията обяви в сряда, че Алтман ще се върне като главен изпълнителен директор, а Суцкевер, Макколи и Тонер ще бъдат сменени. Емет Шиър, технологичен изпълнителен директор, подкрепящ забавянето на развитието на AI и назначен като временен изпълнителен директор, отпада от управленския екип.

Уволнението на Алтман предизвика бунт в компанията, който застраши бъдещето на OpenAI. Повече от 700 от около 770 служители призоваха за неговото връщане и заплашиха да се прехвърлят към Microsoft, най-големият инвеститор на OpenAI. Суцкевер каза в понеделник, че съжалява за действията си.

„Религията на членовете на борда на OpenAI, базирана на ефективен алтруизъм, и нейното неправилно приложение можеха да върнат спрат пътя на света към огромните предимства на изкуствения интелект“, пише рисковият капиталист и инвеститор в OpenAI Винод Хосла в мнение за The Information.

Сълзи, извинения и заплахи за напускане: Неясното бъдеще на OpenAIНад 700 служители, включително член на борда, настояват за връщането на отстранения главен изпълнителен директор Сам Алтман

Алтман обиколи света тази пролет, предупреждавайки, че AI може да причини сериозни вреди. Той обаче нарече ефективния алтруизъм „невероятно погрешно движение“, което показва „много странно поведение“.

Общността на ефективния алтруизъм е похарчила огромни суми за насърчаване на идеята, че AI представлява екзистенциален риск, но пускането на ChatGPT привлече широко внимание към това колко бързо е напреднала технологията, казва Скот Ааронсън, компютърен учен в Тексаския университет в Остин, който работи по безопасността на AI в OpenAI. Изненадващите възможности на чатбота разтревожиха хората, които преди това отхвърляха всякакви поводи за опасения, коментира той.

Движението на ефективните алтруисти се разпространи сред армии от учени в технологичната индустрия, инвеститори и ръководители, които се надпреварват да създадат AI системи, които да имитират и в крайна сметка да надминат човешките способности. AI може да донесе глобален просперитет, но първо трябва да бъде предотвратена възможността да сее хаос, според членовете на движението.

Много възможности, още повече рискове: AI плаши световните лидериСъществува потенциал за сериозни, дори катастрофални вреди, смятат те

Google и други компании се опитват да са сред първите, които внедряват AI системи, които могат да съответстват на човешкия мозък. Те до голяма степен разглеждат изкуствения интелект като инструмент за напредък по отношение на производителността в икономиките.

Сред високопоставените поддръжници на движението са Дъстин Московиц, съосновател на Facebook, и Ян Талин, милиардерът, основател на Skype, обещали милиарди долари за изследвания в сферата на ефективния алтруизъм. Преди падението си Сам Банкман-Фрийд също беше обещал милиарди за движението. Илон Мъск нарече публикациите на съоснователя на ефективния алтруизъм Уилям Макаскил „близки до моята философия“.

Марк Андресен, съосновател на компанията за рисков капитал Andreessen Horowitz, и Гари Тан, главен изпълнителен директор на стартъп инкубатора Y Combinator, критикуват движението. Тан го нарича несъществена философия, парадираща за добродетелност, която трябва да бъде изоставена, за да бъдат разрешени реални проблеми.

Страхът сред ефективните алтруисти, че AI ще унищожи човечеството, „замъглява способността им да приемат критики извън своята култура“, коментира Шазеда Ахмед, който ръководи екип от Принстънския университет, изследващ движението. „Това не е добре за никоя общност, която се опитва да реши някакъв остър проблем.“

AI – новият инструмент за концентрация на власт на технологичните гигантиГолемите езикови модели изискват огромни количества данни, а с такива разполагат само те

Не само скорошните сътресения в OpenAI разкриват задкулисната надпревара в Силициевата долина между хора, които вярват в пазарите, и ефективните алтруисти.

Дарио Амодей, най-добрият изследовател на OpenAI, се отделя от компанията в началото на 2021 г., за да стартира с други нейни бивши служители Anthropic – AI изследователски проект, настроен приятелски към движението.

Тогава Банкман Фрийд е един от най-големите инвеститори в Anthropic, подкрепящ мисията на компанията, която заявява, че предпочита безопасността на AI пред растежа и печалбите.

Страхът от футуристичните AI системи обаче не е спрял дори онези, които се притесняват за безопасността, да се опитват да изградят изкуствен общ интелект или AGI -усъвършенствани системи, които съответстват или надминават човешкия мозък.

WSJ разказва, че на празничното парти на OpenAI миналия декември Иля Суцкевер се е обърнал към стотици служители и техните гости в Калифорнийската академия на науките в Сан Франциско, недалеч от музей с препарирани зебри, антилопи и лъвове, казвайки:

„Нашата цел е да създадем човеколюбив AGI.“

А след това е добавил: „Почувствайте AGI. Повтаряйте след мен. Почувствайте AGI…“

„Устата на истината“: Има ли нещо специално в чатбота Grok на Илон Мъск?Теорията на Мъск за присъщата безопасност на AI, търсещ истината, предизвиква скептични отговори от много експерти

Ефективните алтруисти казват, че могат да изградят по-безопасни AI системи, защото са готови да инвестират в това, което наричат привеждане в съответствие. Това означава да са сигурни, че служителите могат да контролират технологията, която създават, и да гарантират, че тя съответства на набор от човешки ценности. Досега нито една компания за изкуствен интелект не е казала какви трябва да бъдат тези ценности.

По този повод Хосе Ернандес-Орало, професор по изкуствен интелект във Валенсианския изследователски институт за изкуствен интелект, посочва, че няма сериозни доказателства за това, че свръхумните хора (съответно машините, направени по тяхно подобие) са по-малко склонни да извършват престъпления.

OpenAI наскоро заяви, че ще посвети една пета от своите изчислителни ресурси през следващите четири години на т. нар. процес superalignment, свързан с въпросното съответствие на технологията с човешките ценности. Екипът, ръководен от Суцкевер, изгражда и „учен“, произхождащ от AI, който може да провежда изследвания върху AI системи, според източници на WSJ.

Изданието цитира и разочаровани служители, според които фокусът върху AGI и т. нар. привеждане в съответствие е оставило по-малко ресурси за решаване на по-неотложни проблеми, като злоупотреба от разработчици и измами, които биха могли да повлияят на изборите през 2024 г. Те казват, че несъответствието в ресурсите отразява влиянието на ефективния алтруизъм.

Въпреки че OpenAI създава автоматизирани инструменти за улавяне на злоупотреби, стартъпът не е наел много изследователи за тази работа, според източниците на WSJ, запознати с компанията.

Все пак наскоро компанията е привлякла служител, който да разгледа ролята на технологията на OpenAI в изборите през 2024 г., тъй като експерти предупреждават за потенциала генерираните от изкуствен интелект изображения да подвеждат избирателите.

„Ние сме компания, ръководена от ценности, отдадена на изграждането на безопасен, полезен AGI и ефективният алтруизъм не е един от тях“, казват от OpenAI след публикуването на статията на The Wall Street Journal. „Имаме екипи, посветени на изследването на краткосрочни рискове като киберсигурност, икономическо въздействие и привеждане на системите в съответствие с човешките ценности“, добавят от OpenAI.

Трусовете в OpenAI като шанс за MetaСлучващото се около водещия AI стартъп отваря нови възможности пред модела на технологичния гигант Llama AI

WSJ посочва в публикацията си, че разделение има и в Google. Тазгодишното сливането на двете звена за изкуствен интелект – DeepMind и Google Brain – е предизвикало дебати относно това как се прилагат принципите на ефективен алтруизъм, според настоящи и бивши служители.

Съоснователят на DeepMind Демис Хасабис, който отдавна е наел хора, свързани с движението, отговаря за слетите звена.

Служители на Google Brain казват, че до голяма степен са игнорирали ефективния алтруизъм и вместо това изследват практическите приложения на изкуствения интелект и потенциалната злоупотреба с AI инструменти, според източниците на WSJ.

За или против AI: Заплахи, митове и глобални приоритетиДебат за потенциалната екзистенциална заплаха, която технологията представлява за човечеството

На този фон брандът Сам Алтман е по-силен от всякога.

Свързвайки личността си с OpenAI, Сам Алтман стана лицето на бума на генеративния AI. Неговото отстраняване, което предизвика вътрешни протести, издигна статута му още повече, посочва в свой коментар Fast Company.

Преди драматичното завръщане на Сам Алтман като главен изпълнителен директор на OpenAI победител в цялата бъркотия изглеждаше Microsoft. Технологичният гигант заяви, че е наел Алтман да оглави AI лабораторията му за изкуствен интелект и че ще продължи партньорството си с OpenAI.

Само ден по-късно стана ясно, че най-големият тласък в имиджа си получава самия Алтман. Реакцията на първоначалното му уволнение показа ясно, че брандът OpenAI е неразривно свързан с този на своя съосновател и главен изпълнителен директор. Уволнението му – особено в начина, по който беше направено и липсата на подробности около него – постави компанията на животоподдържащи системи, когато над 700 служители подписаха писмо, в което заплашиха да напуснат, ако Алтман не бъде възстановен.

Междувременно той получаваше похвали от технологични светила, предприемачи и други играчи в сферата на изкуствения интелект.

В петък бившият главен изпълнителен директор на Google Ерик Шмид написа в X: „Сам Алтман е моят герой. Той изгради компания от нищото до стойност от 90 милиарда долара и промени нашия свят завинаги. Нямам търпение да видя каква е следващата му стъпка. Аз и милиарди хора ще се възползваме от бъдещата му работа – ще бъде просто невероятно.”

В неделя съоснователят и главен изпълнителен директор на Airbnb Брайън Чески добави: „Гордея се със Сам и Грег. През последните 36 часа те бяха изправени пред огромен натиск и отговориха с благодат и любов.“

На това съоснователят на Reddit Алексис Оханян отговори: „Наистина. Лидерите се изпитват в огън.“

Младите бизнес герои, чийто „успешен“ път ги отведе към затвора31-годишната Чарли Джейвис е поредният предприемач от списъка на Forbes 30 Under 30, срещу когото са повдигнати наказателни обвинения

В свой коментар The New York Times подчерта, че напоследък има пренасищане с не толкова вдъхновяващи „визионери“, сред които Елизабет Холмс (Theranos), Адам Нойман (WeWork), Банкман-Фрийд (FTX) и продължаващата бъркотия около Илон Мъск. За разлика от последния, Алтман е образ на изящество и уравновесеност сред хаоса, никога не започва битка и не показва раздразнение, но и не мълчи, писа NYT.

Тези и още десетки похвали от по-малко известни предприемачи и технологични лидери показаха, че докато стойността марката OpenAI виси на косъм, тази на бранда Сам Алтман може само да продължи да расте.

Предстои да видим какво ще е бъдещето на ефективните алтруисти и тяхното влияние. Силата на религията вероятно зависи от това в каква посока ще продължи OpenAI с още по-силния Сам Алтман начело.