Водещи експерти сравняват рисковете от AI с пандемия и ядрена война
С появата на ChatGPT, Bard и други големи езикови модели се чуха много предупреждения от хора като Илон Мъск за рисковете, които крие изкуственият интелект (AI). Сега група от високопоставени лидери в индустрията се обединяват около едно изречение, посочва Engadget, което на практика потвърждава тези опасения:
“Намаляването на риска от изчезване на човечеството вследствие на дейноста на AI трябва да бъде глобален приоритет наред с други рискове от този мащаб като пандемии и ядрена война”.
То е публикувано от Центъра за безопасност на изкуствения интелект (Center for AI Safety) - организация, чиято мисия е "да намали рисковете от използването на изкуствения интелект в обществен мащаб", сочи информация в нейния уебсайт.
Списъкът на подписалите се под това изречение включва представители на индустрията на изкуствения интелект, включително изпълнителният директор на OpenAI Сам Алтман и ръководителят на DeepMind на Google Демис Хасабис. Лауреатите на наградата "Тюринг" Джефри Хинтън и Йошуа Бенгио, считани от мнозина за кръстници на съвременния изкуствен интелект, също попадат в него.
От железницата до AI - технологичният напредък плаши хората от векове В първите дни на железницата много хора са я смятали за дело на дявола, с изкуствения интелект ситуацията не е по-различна
Това е второто подобно изявление за последните няколко месеца. През март Мъск, Стив Возняк и повече от 1000 други известни имена призоваха за шестмесечна пауза в областта на AI, за да се даде възможност на индустрията и обществото ефективно да наваксат изоставането си по отношение на технологията.
"През последните месеци лабораториите за изкуствен интелект се впуснаха в неконтролируема надпревара за разработване и внедряване на все по-мощни цифрови умове, които никой - дори техните създатели, не може да разбере, предвиди или надеждно да контролира", обяви групата в своя позиция тогава.
Въпреки че AI не е самоосъзнала се технология, както се опасяват много хора, той вече създава рискове за злоупотреба и нанасяне на вреди чрез т.нар. дийпфейк фалшификати, автоматизиране на дезинформационни кампании и т.н. Технологията може също така да промени начина, по който се създава съдържание, изкуство и литература, което, на свой ред, застрашава множество работни места.
Създателите на AI настояват за строга регулация. В риск ли е човечеството?Европейският парламент вече даде зелена светлина на нов пакет правила за AI
Президентът на САЩ Джо Байдън наскоро също коментира, че "тепърва ще се види" дали AI е опасен, добавяйки:
"Според мен технологичните компании имат отговорността да се уверят, че продуктите им са безопасни, преди да ги направят обществено достояние. AI може да помогне за справяне с някои много трудни предизвикателства като болестите и изменението на климата, но трябва да се обърне внимание и на потенциалните рискове за нашето общество, за нашата икономика, за нашата национална сигурност."
По време на неотдавнашна среща в Белия дом Сам Алтман стана поредният представител на индустрията, който призова за регулиране на AI заради потенциалните рискове.
Фалшива новина за Пентагона взриви мрежите и срина пазара. Намесен ли е AI?Според експерти, снимката носи белезите на генерирано от изкуствен интелект изображение
На фона на всички тези мнения, а те са само част от вълната предупреждения, свързани с развитието на изкуствения интелект, новото кратко изявление има за цел да покаже общата загриженост около рисковете, дори различните заинтересовани страни да не са напълно съгласни какви са те, посочва още Engadget.
"Експертите по AI, журналистите, политиците и обществеността все по-често обсъждат широк спектър от важни и сериозни рискове", се казва в преамбюла на изявлението. "Дори и при това положение обаче, може да е трудно да се очертаят най-сериозните заплахи, свързани с усъвършенствания AI. Краткото изявление по-долу има за цел да преодолее тази пречка и да отвори дискусията. То също така има за цел да създаде общо познание за това, че все повече експерти и обществени фигури приемат сериозно тази заплаха."