Общият изкуствен интелект (AGI) - често наричан "силен AI", "пълен AI", "AI на човешко ниво" или "общо интелигентно действие" – стои за значителен бъдещ скок в областта на технологиите. За разлика от сегашния изкуствен интелект, който е пригоден за конкретни инструкции, като обобщаване на новини или създаване на уебсайт, AGI ще може да изпълнява широк спектър от задачи на или над човешкото ниво.

В обръщение към пресата тази седмица на годишната конференция за разработчици GTC на Nvidia главният изпълнителен директор Дженсън Хуанг изглеждаше наистина отегчен от обсъждането на темата, защото според него често се оказва погрешно цитиран, посочва TechCrunch.

Концепцията повдига екзистенциални въпроси за ролята и контрола на човечеството в бъдеще, в което машините могат да надхитрят, да се научат и да надминат хората в почти всяка област. Същността на това безпокойство се крие в непредсказуемостта на процесите за развитие на технологията и целите на AGI, които може да не съвпадат с човешките ценности или приоритети. Много от експертите се позовават на концепция, задълбочено изследвана в научната фантастика още от 40-те години на миналия век.

Съществува загриженост, че след като AGI достигне определено ниво на автономност и способности, може да стане невъзможно да бъде овладян или контролиран, което ще доведе до сценарии, в който неговите действия няма да могат да бъдат предвидени или отменени.

По време на пресконференцията на Nvidia Хуанг обаче прекара известно време, за да разкаже на пресата какво мисли по темата. Предвиждането на това кога ще видим приемлив AGI зависи от това как дефинирате технологията, твърди Хуанг.

"Ако уточним, че AGI е нещо много специфично, набор от тестове, при които една софтуерна програма може да се справи много добре - или може би с 8% по-добре от повечето хора - вярвам, че ще стигнем този етап до 5 години."

Той предполага, че тестовете върху технологията биха могли да бъдат изпит за адвокатска правоспособност, логически и икономически задачи, или способността да се издържи предварителен медицински изпит.

AI Халюцинацията не е проблем

По време на сесията с въпроси и отговори във вторник Хуанг беше попитан какво може да се направи с AI халюцинациите - тенденцията някои чатботове да измислят отговори, които звучат правдоподобно, но не са основани на факти. Той изглеждаше видимо разочарован от въпроса и заяви, че те са лесно решими - като се гарантира, че отговорите са добре проучени, пише TechCrunch.

"Добавете правило: За всеки отделен отговор трябва да сферите информацията", каза Хуанг, наричайки тази практика "генерация с разширено извличане". Той описа подход, много подобен на основната медийна грамотност: Проучете източника и контекста. Сравнете фактите, съдържащи се в източника, и ако отговорът е фактически неточен - дори частично - отхвърлете цялата информация и преминете нататък.

"AI не трябва просто да отговаря - той трябва първо да направи проучване, за да определи кой от отговорите е най-добрият."

За отговори, като например здравни съвети или други подобни, главният изпълнителен директор на Nvidia предполага, че може би проверката на множество ресурси и източници на истина е пътят напред. Разбира се, това означава, че генераторът, който генерира информацията, трябва да има възможност да каже: "Не знам отговора на вашия въпрос" или "Не мога да стигна до консенсус за това какъв е правилният отговор".