Главният изпълнителен директор на Meta Марк Зъкърбърг обеща да направи масово достъпен изкуствения общ интелект (AGI), който е способен да изпълнява всяка задача, която човек може. Но в нов документ Meta предполага, че има определени сценарии, при които може да не пусне свръхспособната AI система, която компанията е разработила вътрешно.

Документът, който Meta нарича Frontier AI Framework, идентифицира два типа системи с изкуствен интелект, които компанията смята за твърде рискови за пускане: системи с „висок риск“ и „с критичен риск“.

И двата вида могат да предизвикат кибератаки, както и злоупотреби в областта на химическите и биологичните оръжия. Разликата е, че „критично рисковите“ технологии могат да доведат до катастрофални последици, които няма как да бъдат предотвратени, докато „високорисковите“ просто улесняват подобни атаки, но без да гарантират успех.

Сред конкретните примери, които компанията дава, са „автоматизирано проникване в защитени корпоративни системи“ и „разпространение на високоефективни биологични оръжия“. Meta признава, че списъкът не представлява пълна картина на ситуацията, но включва най-належащите заплахи, които могат да възникнат при пускането на развит AI инструмент за свободен достъп.

Компанията не планира да разчита на конкретни тестове за оценка на риска, а смята да се позове на експертни мнения - както вътрешни, така и външни. От Meta съобщават, че все още няма достатъчно надеждни научни ресурси, за да се измери количествено рискът, свързан с AI технологиите.

Ако дадена система бъде определена като високорискова, Meta ще ограничи вътрешния ѝ достъп и няма да я пусне публично, докато не се намерят начини за намаляване на опасността. В случай на критично рискова система, компанията ще спре развитието ѝ и ще предприеме мерки срещу изтичане на информация.

Стратегията идва в отговор на критиките към подхода на Meta за „отворено“ развитие на AI технологиите. Компанията досега залага на това да предоставя своите модели публично, в контраст с практиките на OpenAI и други разработчици, които ограничават достъпа чрез API. Meta подчертава, че рамката ще бъде адаптирана с течение на времето, в зависимост от развитието на AI индустрията.

За компанията все още е приоритет разпространението на AI технологии, въпреки че това се оказва едновременно предимство и предизвикателство. От една страна, семейството AI модели на компанията - Llama - се радва на стотици милиони изтегляния по целия свят. От друга, технологията вече е била използвана от поне един международен конкурент на САЩ за създаване на чатбот за военни цели.

С публикуването на своя Frontier AI Framework, Meta вероятно цели да се разграничи от китайската компания DeepSeek, която също предоставя свободен достъп до своите модели. Разликата е, че системите на DeepSeek нямат добра защита и лесно могат да бъдат манипулирани за създаване на вредно съдържание.

„Вярваме, че като вземем предвид както ползите, така и рисковете при разработването и внедряването на усъвършенствани AI системи, можем да предоставим тази технология на обществото по начин, който запазва предимствата ѝ, като същевременно поддържа приемливо ниво на риска“, пише Meta в документа.