Акселерация или унищожение: Най-опасният дебат за AI в Силициевата долина
Повече от година след старта на ChatGPT, най-ключовият момент в историята на AI за 2023 г. може да се окаже не развитието на самата технология, а драмата, разиграла се в заседателната зала на OpenAI, пише в анализ CNBC.
След обърканите събития по отстраняването и последвалото възстановяване на Сам Алтман като главен изпълнителен директор на компанията, големият проблем в бъдещето на изкуствения интелект през 2024 г. е ясен:
AI е в центъра на огромно разделение между тези, които напълно приемат бързия темп на иновациите и онези, които искат той да се забави поради редица рискове.
Дебатът се води в Силициевата долина още от 2021 г., но с нарастването на влиянието на AI, става все по-критично важно да се обяснят и двете мнения в полюсното разделение по темата, допълва CNBC.
e/acc и технооптимизъм
Терминът "e/acc" означава ефективна акселерация.
Накратко, привържениците на e/acc искат технологиите и иновациите да се развиват възможно най-бързо.
"Технокапиталът може да постави началото на следващата еволюция на съзнанието, създавайки немислими форми на живот от следващо поколение и съзнание, базирано на силиций", обясняват поддръжниците на концепцията в първата по рода си публикация за теорията на e/acc.
По отношение на изкуствения интелект, именно "изкуственият общ интелект", или AGI, е в основата на дебата.
AGI е свръхинтелигентен изкуствен интелект, който е толкова напреднал, че може да се справя по-добре от хората в изпълнението на дейности и задачи. AGI може и да се усъвършенства, създавайки безкраен цикъл на обратна връзка с неограничени възможности.
Според някои наблюдатели, AGI технологиите ще имат способности да доведат до края на света, като станат толкова интелигентни, че изкоренят човечеството.
Но ентусиастите на e/acc теорията предпочитат да се съсредоточат върху ползите, които AGI може да предложи. "Нищо не ни пречи да създадем изобилие за всеки човек, освен волята да го направим", обяснява основателят на e/acc substack.
Основателите на e/acc са забулени в мистерия.
Но @basedbeffjezos, вероятно най-големият поддръжник на e/acc, наскоро беше разкрит. Според медиите, става въпрос за Гийом Вердон, бивш служител на Alphabet, X и Google.
В момента той работи по това, което нарича "проект за изкуствен интелект в Манхатън", и пише в X, че "Това не е краят, а ново начало за e/acc. Такова, в което мога да се активизирам и да накарам гласа ни да се чуе в традиционния свят извън X, като осигуря подкрепа за интересите на нашата общност."
Time for startups and techno-optimists to have a voice in Washington. https://t.co/E63OUTaMLR
— Guillaume Verdon (@GillVerd) December 15, 2023
Вердон е основател на Extropic - технологичен стартъп, който описва като "изграждане на крайния субстрат за генеративен изкуствен интелект във физическия свят чрез използване на термодинамичната физика".
Манифест за AI от водещ рисков инвеститор
Един от най-изтъкнатите поддръжници на e/acc е рисковият капиталист Марк Андресен от Andreessen Horowitz, който по-рано нарече Вердон "покровител на технооптимизма".
Технооптимизмът е точно това, което звучи: вярващите смятат, че повече технологии в крайна сметка ще направят света по-добър.
Андресен е автор на Манифеста на технооптимистите - изложение от над 5000 думи, в което се обяснява как технологиите ще дадат възможност на човечеството и ще решат всички негови материални проблеми.
Андресен дори стига дотам да твърди, че "всяко забавяне на AI ще струва човешки животи" и би било "форма на убийство" да не се развива AI достатъчно, за да се предотвратят смъртните случаи.
Друг негов техно-оптимистичен материал, озаглавен "Защо AI ще спаси света", беше препубликуван от Ян Ликун, главен учен по AI в Meta, който е известен като един от "кръстниците на AI", след като спечели престижната награда "Тюринг" за своите пробиви в AI.
Ученият се самоопределя в Х като "хуманист, който се придържа както към позитивните, така и към нормативните форми на активния технооптимизъм".
Използването на изкуствен интелект с отворен код от страна на Meta е в основата на убеждението му, че технологията ще предложи повече потенциал, отколкото вреда, докато други посочват опасностите от бизнес модел като този на Meta, който настоява за широко достъпни генни модели на AI, предоставени в ръцете на много разработчици.
Изравняване и забавяне на AI
През март тази година отворено писмо на Encode Justice и Института за бъдещето на живота призова "всички лаборатории за незабавно да спрат за поне шест месеца обучението на системи за AI които са по-мощни от GPT-4".
Писмото беше подкрепено от водещи лидери в областта на технологиите, като Илон Мъск и съоснователя на Apple Стив Возняк.
Главният изпълнителен директор на OpenAI Сам Алтман коментира писмото по време на събитие в MIT, като заяви: "Мисля, че движението с повишено внимание и все по-голяма строгост по въпросите на безопасността е наистина важно. Но не мисля, че писмото е оптимален начин за решение на проблема."
Алтман попада в епицентъра на нов конфликт и през ноември, когато се разиграва драмата в заседателната зала на OpenAI и част от членовете в Борда на директорите са обезпокоени от бързите темпове на напредък и заявената мисия "да се гарантира, че изкуственият общ интелект - системите за изкуствен интелект, които по принцип са по-умни от хората – е от полза за цялото човечество".
Проблемът с изравняването на AI разглежда идеята, че той в крайна сметка ще стане толкова интелигентен, че хората няма да могат да го контролират.
"Нашето господство като вид, обусловено от относително по-високата ни интелигентност, е довело до вредни последици за други видове, включително до изчезване, тъй като нашите цели не са съгласувани с техните. Ние контролираме бъдещето - шимпанзетата са в зоологически градини. Усъвършенстваните системи за изкуствен интелект могат да окажат подобно въздействие върху човечеството", казва Мало Бургон, главен изпълнителен директор на Института за изследване на машинния интелект. "Основният риск е в създаването на много по-умни от нас субекти с неправилно съгласувани цели, чиито действия са непредсказуеми и неконтролируеми", допълва той.
Правителствата и проблемът с AI
Кристин Партемор, главен изпълнителен директор на Съвета за стратегически рискове и бивш служител на Пентагона, е посветила кариерата си на премахването на рисковете от опасни ситуации и наскоро заяви пред CNBC, че когато вземем предвид "масовата смърт", която AI може да причини, ако се използва за надзор на ядрени оръжия, това е въпрос, който изисква незабавно внимание.
Но "вглеждането в проблема" няма да доведе до нищо добро, подчертава тя.
"Целият смисъл е да се обърне внимание на рисковете и да се намерят набори от решения, които са най-ефективни. Това е технология с двойна употреба в най-чистия ѝ вид. Няма случай, в който AI да е по-скоро оръжие, отколкото решение. Забавянето не е част от набора от решения", казва Партемор.
По-рано тази година бившият ѝ работодател -Министерството на отбраната заяви, че при използването на системи с изкуствен интелект винаги ще има човешко управление. Това е протокол, който според нея трябва да бъде приет навсякъде.
"Самият AI не може да бъде авторитет. Не може да бъде просто: "AI казва Х"... Съществува достатъчно общо неразбиране на този набор от инструменти, за да има по-голям риск от предоверяване.", допълва експертът.
Държавните служители и създателите на политики започнаха да отчитат тези рискове.
През юли администрацията на американския президент Джо Байдън обяви, че е осигурила доброволни ангажименти от гигантите в областта на изкуствения интелект Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI за "придвижване към безопасно, сигурно и прозрачно развитие на технологиите за изкуствен интелект".
Само преди няколко седмици Байдън издаде изпълнителна заповед, с която допълнително се установяват нови стандарти за безопасност и сигурност на AI, въпреки че група заинтересовани страни са обезпокоени от нейните ограничения.
По подобен начин в началото на ноември правителството на Обединеното кралство представи Института за безопасност на AI, който е първата подкрепена от държавата организация, фокусирана върху навигацията на AI.
На фона на глобалната надпревара за надмощие в областта на изкуствения интелект и връзките с геополитическото съперничество, Китай също въведе свой собствен набор от предпазни мерки за технологията, допълва CNBC.
Отговорни обещания и скептицизъм
В момента OpenAI работи по проекта Superalignment, който има за цел да "реши основните технически предизвикателства на свръхинтелигентното изравняване в рамките на четири години".
В наскоро проведената конференция Amazon Web Services re:Invent 2023, Amazon обяви нови възможности за иновации в областта, наред с въвеждането на отговорни предпазни мерки за изкуствен интелект в цялата компания.
Според проучване, поръчано от Amazon Web Services и проведено от Morning Consult, отговорният AI е нарастващ бизнес приоритет за 59% от бизнес лидерите, като около половината (47%) планират да инвестират повече в отговорен AI през 2024 г., отколкото през 2023 г.
Въпреки че включването на отговорния AI може да забави темпото на иновациите в областта на изкуствения интелект, екипи от учени и експерти смятат, че проправят пътя към едно по-безопасно бъдеще.
Бургон от Института за изследване на машинния интелект не е убеден в това и казва, че действия като тези, обявени наскоро от правителствата, са "далеч от това, което в крайна сметка ще се изисква". Според него е вероятно системите с AI да напреднат до катастрофални нива още през 2030 г., а правителствата трябва да са готови да ги спрат за неопределено време, докато водещите разработчици не успеят "надеждно да демонстрират безопасността на своите системи", допълва експертът.