Колко опасна може да бъде „етичната“ технология?
Докато предупреждава за рисковете от изкуствения интелект, Anthropic ускорява разработката на все по-мощни модели – и разчита именно на тях, за да държи технологията под контрол
,fit(1001:538)&format=webp)
Стартъпът Anthropic е изправен пред стратегически парадокс. От една страна компанията се нарежда сред лидерите в изследването на AI рисковете и вероятно е най-гласовитият защитник на безопасността в индустрията. От друга страна обаче компанията продължава да се движи със същата скорост като конкурентите си към следващото, потенциално по-опасно поколение системи за изкуствен интелект, въпреки че част от идентифицираните заплахи все още нямат ясно решение.
Основната мисия на Anthropic днес, според WIRED, може да се обобщи така: как да бъде преодолян този вътрешен конфликт.
Технология в „юношеска възраст“
През последния месец Anthropic публикува два важни документа, които едновременно признават рисковете от избрания курс и очертават възможен изход от дилемата.
Първият е мащабен блог пост на главния изпълнителен директор Дарио Амодеи, озаглавен The Adolescence of Technology, който разглежда предизвикателството да се „конфронтират и преодолеят рисковете от мощния AI“.
Въпреки че текстът обещава решения, фокусът по-скоро пада върху самите опасности.
Амодеи определя задачата като „плашеща“, особено предвид високата вероятност авторитарни режими да злоупотребят с технологията. Тонът му е доста по-мрачен в сравнение с предишното му почти утопично есе Machines of Loving Grace, в което той описва бъдеще, населено от „нация от гении в център за данни“.
Новият текст чертае далеч по-драматична картина, като използва метафори за „черни морета на безкрая“. Въпреки че есето се състои от 20 000 думи, в които тревожните сценарии доминират, Амодеи все пак завършва с умерен оптимизъм: дори в най-тежките моменти човечеството исторически е откривало начин да се справи.
„Конституцията“ на Claude
Вторият документ – Claude’s Constitution – е по-прагматичен и се фокусира върху това как подобен баланс може да бъде постигнат. Формално текстът е адресиран към един-единствен „читател“: самия AI модел Claude и неговите бъдещи версии.
Документът разкрива визията на Anthropic за това как техният чатбот – а вероятно и други AI системи – трябва да навигират в сложния реален свят. Накратко, компанията планира да разчита именно на Claude, за да помогне за разрешаването на корпоративния „гордиев възел“ – тоест изключително сложен за решаване проблем.
От години това, което отличава Anthropic от останалите конкуренти в сферата, е концепцията за Constitutional AI – подход, при който моделите се обучават да следват набор от принципи, съобразени с универсални човешки ценности.
Първата версия на „конституцията“ включва документи като Всеобщата декларация за правата на човека, етични насоки срещу расизма и насилието, както и дори условията за ползване на Apple, обяснява WIRED. Обновената версия за 2026 г. обаче прилича повече на мащабна етична рамка – своеобразен „дълъг промпт“, който насърчава Claude сам да открива най-правилния морален избор.
От правила към преценка
Аманда Аскел – доктор по философия и водещ автор на ревизията – обяснява пред WIRED, че този подход е по-устойчив от обикновеното налагане на правила.
„Ако хората следват правила единствено защото съществуват, резултатът често е по-лош, отколкото ако разбират защо са въведени“, казва тя.
Конституцията предвижда Claude да упражнява „независима преценка“, когато трябва да балансира между полезност, безопасност и честност. Моделът трябва не само да разсъждава строго, но и да бъде „интуитивно чувствителен“ към различни фактори и да взема решения бързо в реални ситуации.
Изборът на думата „интуитивно“ е показателен – сякаш зад алгоритъма стои нещо повече от статистическа машина за предсказване на следващата дума. Документът дори изразява надежда, че Claude ще може да черпи „от собствената си мъдрост и разбиране“.
Аскел не избягва този термин: според нея моделът действително е способен на „определен вид мъдрост“.
За да илюстрира трудността на казуса, Аскел дава пример: ако потребител поиска помощ за изработването на нож от нов вид стомана, това само по себе си не е проблем. Но ако същият човек по-рано е говорил за намерение да нарани някого, Claude трябва да отчете този контекст и да реагира внимателно. Все пак не съществува строг наръчник кога точно да се намеси.
Друг сценарий е още по-деликатен – когато AI анализира медицински данни и стигне до заключение за фатално заболяване. Трябва ли моделът директно да съобщи новината? Или да насърчи потребителя да потърси лекар? Или да поднесе информацията по начин, по-емпатичен дори от този на най-добрия специалист?
Целта на Anthropic е Claude не само да имитира най-доброто от поведението на хората, а в перспектива дори да го надмине.
„Вярваме в Claude“
Ако тази стратегия е успешна, тя може да отговори на фундаменталния въпрос, който преследва почти всяка лаборатория за изкуствен интелект: ако технологията е до такава степен опасна, защо продължаваме да я развиваме?
Отговорът на Anthropic е ясен – доверие в собствената им система.
Документът дори описва развитието на Claude почти като героично пътешествие към мъдростта, а моделът е представен като морален субект, чието благополучие също заслужава внимание.
AI като бъдещ лидер?
Anthropic не е единствената компания, която вижда бъдещето в подобна посока. Главният изпълнителен директор на OpenAI Сам Алтман наскоро заяви, че дългосрочният план включва предаване на управлението на компанията на AI система.
Според него последните пробиви в програмирането само ускоряват този сценарий.
„Има много неща, които един AI главен изпълнителен директор може да прави по-добре от човек“, твърди Алтман.
Оптимистичният и песимистичният сценарий
В оптимистичната версия на бъдещето корпорациите – а може би и правителствата – ще бъдат управлявани от модели за изкуствен интелект, способни да вземат по-рационални и може би дори по-емпатични решения от хората. Дори тежки корпоративни решения, като масови съкращения, биха могли да бъдат комуникирани по-човешки.
Песимистичният сценарий изглежда по-тревожен: AI системите може да се окажат недостатъчно мъдри, за да устоят на манипулация от злонамерени актьори – или самите те да злоупотребят с предоставената им автономия.
Независимо кой от двата пътя ще се окаже реалност, едно изглежда сигурно – развитието на изкуствения интелект вече е в ход и връщане назад няма. Разликата е, че Anthropic се опитва да изгради рамка, в която тази трансформация да остане под човешки контрол.
&format=webp)
&format=webp)
&format=webp)
&format=webp)
)
&format=webp)
&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)