Известният компютърен учен Йошуа Бенгио - пионер в областта на изкуствения интелект - предупреждава за потенциалните негативни последици от зараждащата се технология за обществото и призовава за повече изследвания за намаляване на рисковете от нея.

Бенгио, професор в University of Montreal и ръководител на Montreal Institute for Learning Algorithms, е спечелил множество награди за работата си в областта на дълбочинното обучение - подвид на изкуствения интелект, който се опитва да имитира дейността на човешкия мозък, за да се научи да разпознава сложни модели в данните. Но той има опасения относно технологията и предупреждава, че някои хора с „голяма власт“ може дори да искат човечеството да бъде заменено от машини.

„Наистина е важно да се проектираме в бъдещето, в което ще имаме машини, толкова умни, колкото нас в много отношения, и какво би означавало това за обществото“, казва Бенгио пред CNBC.

По думите му машините скоро биха могли да притежават повечето от когнитивните способности на хората. Общият изкуствен интелект (AGI) е вид технология, която има за цел да изравни или дори надскочи човешкия интелект.

„Интелигентността дава власт. Кой ще контролира тази сила?“, казва той. „Наличието на системи, които знаят повече от повечето хора, може да бъде опасно в неправилни ръце и да създаде повече нестабилност на геополитическо ниво, например, или тероризъм.“

Според Бенгио ограничен брой организации и правителства ще могат да си позволят да изградят мощни машини с изкуствен интелект и колкото по-големи са системите, толкова по-умни стават те.

„Тези машини, знаете, струват милиарди, за да бъдат изградени и обучени. Много малко организации и много малко държави ще могат да го направят. Това вече е така“, акцентира той. „Ще има концентрация на власт: икономическа власт, която може да е лоша за пазарите; политическа власт, която може да е лоша за демокрацията; и военна власт, която може да е лоша за геополитическата стабилност на нашата планета. Така че има много отворени въпроси, които трябва да проучим внимателно и да започнем да смекчаваме възможно най-скоро.“

Според него такива резултати са възможни в рамките на десетилетия.

„Но ако това стане след пет години, ние няма да сме готови, защото нямаме методи, с които да се уверим, че тези системи няма да навредят на хората или няма да се обърнат срещу нас. Не знаем как да го направим“, добавя той.

Съществуват аргументи, които сочат, че начинът, по който в момента се обучават машините с изкуствен интелект, „ще доведе до системи, които ще се обърнат срещу хората“.

„Освен това има хора, които може да искат да злоупотребят с тази власт, а има и такива, които да са щастливи да видят човечеството заменено от машини. Тези хора може да имат много власт и да го направят, ако не поставим правилните предпазни огради още сега“, предупреждава Бенгио.

Насоки и регулиране на AI

През юни той подкрепя отворено писмо, озаглавено: „Право на предупреждение за усъвършенствания изкуствен интелект“. То беше подписано от настоящи и бивши служители на Open AI - компанията, която стои зад чатбота с изкуствен интелект ChatGPT.

В писмото се предупреждава за „сериозните рискове“ от напредъка на AI и се призовава за насоки от страна на учените, политиците и обществеността за тяхното намаляване. През последните няколко месеца OpenAI е обект на нарастващи опасения за безопасността, като през октомври нейният екип AGI Readiness беше разформирован.

„Първото нещо, което правителствата трябва да направят, е да има регулация, която да принуди компаниите да се регистрират, когато изграждат тези системи. Особено най-големите, които струват стотици милиони долари“, казва Бенгио.

Тъй като изкуственият интелект се развива изключително бързо, правителствата трябва „да бъдат малко по-креативни“ и да създадат законодателство, което да може да се адаптира към технологичните промени.

Според компютърния учен компаниите, разработващи изкуствен интелект, също трябва да носят отговорност за действията си.

„Отговорността е друг инструмент, който може да принуди компаниите да се държат добре. Ако става въпрос за парите им, страхът от съдебен процес - това ще ги подтикне да правят неща, които защитават обществото. Ако знаят, че не могат да бъдат съдени, защото в момента това е нещо като сива зона, тогава те могат да правят каквото сметнат за добре“, казва той.

Процесът на създаване на закони за осигуряване на безопасността на AI ще бъде подобен на начините, по които се разработват правила за други технологии, като самолети или автомобили.

„За да се възползваме от предимствата на AI, трябва да регулираме. Трябва да поставим предпазни огради. Трябва да имаме демократичен надзор върху начина, по който се развива технологията“, категоричен е  Бенгио.

Дезинформация

Разпространението на дезинформация, особено по време на избори, е все по-голям проблем с развитието на изкуствения интелект. През октомври OpenAI заяви, че е прекъснала „повече от 20 операции и измамни мрежи от цял свят, които са се опитали да използват нашите модели“. Сред тях са публикации в социалните мрежи от фалшиви акаунти, генерирани преди изборите в САЩ и Руанда.

„Една от най-големите краткосрочни тревоги, но и такава, която ще нараства с напредването към по-способни системи, е дезинформацията, способността на AI да влияе върху политиката и мненията“, казва Бенгио. „С напредването на времето ще разполагаме с машини, които могат да генерират по-реалистични изображения, по-реалистично звучащи имитации на гласове, по-реалистични видеоклипове“.

Това влияние може да обхване и взаимодействията с чатботове, обяснява още той, позовавайки се на проучване на италиански и швейцарски изследователи, което показва, че големият езиков модел GPT-4 на OpenAI може да убеждава хората да променят мнението си по-добре от човек.

„Това беше само научно изследване, но можете да си представите, че има хора, които го четат и искат да направят това, за да се намесят в нашите демократични процеси“, продължава ученият.

„Най-трудният въпрос от всички“

Бенгио смята, че „най-трудният въпрос от всички“ е: „Ако създадем същества, които са по-умни от нас и имат свои собствени цели, какво означава това за човечеството? В опасност ли сме?“

„Всички тези въпроси са много трудни и важни и ние нямаме отговори. Нуждаем се от много повече изследвания и предпазни мерки, за да намалим потенциалните рискове“, добавя той и призовава хората да действат. „Имаме възможност да действаме. Не е твърде късно да насочим еволюцията на обществата и човечеството в положителна и полезна посока. Но за целта се нуждаем от достатъчно хора, които да разбират както предимствата, така и рисковете, и които да работят върху решенията. А решенията могат да бъдат технологични, могат да бъдат и политически, но ни трябват достатъчно усилия в тези посоки още сега“.