Лидери от водещи световни лаборатории очакват в близко бъдеще да се появи форма на изкуствен интелект, равна или дори надхвърляща човешкия.

Но как ще изглежда и как ще се прилага технологията, остава загадка дори за тях.

На Световния икономически форум в Давос миналата седмица, изпълнителни директори на компании като OpenAI, Cohere, DeepMind на Google и технологични гиганти като Microsoft и Salesforce прецениха рисковете и възможностите, които предоставя изкуственият интелект.

Миналата година AI навлезе в почти всички бизнес сектори чрез ChatGPT – иновативният езиков модел на OpenAI.

Това породи загриженост сред правителства, корпорации и групи за защита на правата на човека с оглед на рисковете, свързани с липса на прозрачност в системите за AI; загубата на работни места вследствие от повишената автоматизация; социалното манипулиране с компютърни алгоритми; наблюдението и неприкосновеността на личните данни.

Сам Алтман: AI на човешко ниво идва и ще промени света не както си мислимАлтман се опита да смекчи опасенията на скептиците по отношение на AI за степента, в която технологията ще завладее обществото

AGI е "супер неясно дефиниран термин"

Главният изпълнителен директор и съосновател на OpenAI Сам Алтман заяви, че според него изкуственият общ интелект може би не е далеч от това да стане реалност и може да бъде разработен в "сравнително близко бъдеще".

Въпреки това отбеляза, че опасенията как това ще промени драматично света и ще го разруши, са пресилени.

"Това ще промени света много по-малко, отколкото всички си мислим и ще промени работните места много по-малко, отколкото всички си мислим", заяви Алтман по време на дискусионен панел на Bloomberg в рамките на Световния форум в Давос.

Алтман промени мнението си за опасностите, които крие изкуственият интелект, след като компанията му попадна в центъра на вниманието на регулаторните органи миналата година, когато правителствата на САЩ, Великобритания, Европейския съюз и други страни се опитаха да наложат ограничения заради рисковете, които технологиите им представляват.

Сам Алтман призова за международно регулиране на изкуствения интелектПрез последните месеци правителствата са подложени на натиск за регулация на AI

В интервю за ABC News през май 2023 г. Алтман заяви, че той и компанията му са "уплашени" от негативните страни на свръхинтелигентния AI. "Тук трябва да внимаваме. Мисля, че хората трябва да са щастливи, че самите ние малко се страхуваме", коментира преди месеци той.

Алтман допълни, че се страхува от потенциала на AI да бъде използван за "широкомащабна дезинформация", като заяви: "Сега, когато те стават все по-добри в писането на компютърен код, могат да се използват и за кибератаки."

През ноември обаче Алтман беше временно отстранен от OpenAI и след това отново върнат на поста изпълнителен директор в шокиращ ход, който разкри опасенията за управлението на компаниите, стоящи зад най-мощните системи за AI, припомня CNBC.

По време на Световния икономически форум в Давос Алтман заяви, че отстраняването му е било "микрокосмос" на напрежението, с което се сблъскват OpenAI и други лаборатории за изкуствен интелект. "С приближаването на света към AGI се увеличават залозите, стресът, нивото на напрежение. Всичко това ще се повишава", призна той.

Сам Алтман определи като „нелепа“ драмата с уволнението му от OpenAIТехнологичният лидер разказа за преживяното по време на Световния икономически форум в Давос

Ейдън Гомес, главен изпълнителен директор и съосновател на стартъпа за изкуствен интелект Cohere, изрази съгласието си с Алтман.

"Мисля, че съвсем скоро ще разполагаме с тази технология", коментира той пред CNBC на Световния икономически форум. Според него, ключов проблем с AGI е, че той все още не е дефиниран като технология.

"На първо място, AGI е супер неясно дефиниран термин. Ако просто го определим като "по-добър от хората в почти всичко, което могат да правят", съгласен съм, че съвсем скоро ще получим такъв тип системи", обясни Гомес.

Въпреки това допълни, че дори когато AGI се появи, вероятно ще са необходими "десетилетия", за да могат компаниите наистина да се интегрират с технологията.

"Въпросът наистина е колко бързо можем да го приемем, колко бързо можем да го въведем в производство, мащабът на тези модели ни затруднява", отбеляза Гомес. "И така, фокусът ни в Cohere е върху компресирането на това: да го направим по-адаптивно и по-ефективно."

От „кръстниците“ до новите герои в AI: 10 лидери на мнение, които да следимВъзможностите и опасностите, които някои от лидерите в облстта виждат в изкуствения интелект

Реалността е, че никой няма представа

Темата за определянето на това какво всъщност е AGI и как ще изглежда, затруднява много експерти в областта на технологиите с изкуствен интелект.

Лайла Ибрахим, главен оперативен директор на лабораторията за изкуствен интелект DeepMind на Google, смята, че никой не може да прогнозира с точност кой тип AI може да се квалифицира като притежаващ "общ интелект" и отбелязва от колко важно значение е това технологията да се развива безопасно.

"Реалността е, че никой няма представа" кога ще се появи AGI, каза Ибрахим пред CNBC.

"Има дебат сред експертите по AI, които се занимават с него отдавна както в индустрията, така и в компаниите. Вече виждаме области, в които AI има способността да отключи нашето разбиране и досега не сме имали такъв напредък. Така че, говорим за AI в партньорство с човека като инструмент", обяснява Ибрахим.

"Мисля, че това не отворен въпрос и не знам как по-добре да отговоря, освен ако се замислим не за това колко време ще отнеме, а как ще изглежда и как да гарантираме, че сме отговорни стопани на технологията?", допълва тя.

Забравете за AI апокалипсис в бъдещето. Опасността е тук и сега Тезата за бъдеще, изпълнено с рискове от изкуствения интелект, измества фокуса от проблемите, които вече създава

"Губим контрол" или когато машината сама напише кода си

Сам Алтман не е единственият технологичен лидер, който коментира темата за рисковете от AI на Форума в Давос.

Марк Беньоф, главен изпълнителен директор на Salesforce, заяви, че технологичният свят предприема стъпки, за да гарантира, че надпреварата за изкуствения интелект няма да доведе до "момент на Хирошима".

Много технологични лидери предупредиха, че AI може да доведе до "ниво на изчезване", в което машините ще са толкова мощни, че ще излязат извън контрол и ще унищожат човечеството. Илон Мъск, Стив Возняк и бившият кандидат за президент Андрю Янг, призоваха за пауза в развитието на AI, като заявиха, че шестмесечен мораториум би бил полезен, за да може обществото и регулаторните органи да наваксат.

„Кръстникът на AI” смята технологията за екзистенциален риск за човека Той не отхвърля изкуствения интелект като цяло, но призовава за емпиричен подход към неговото развитие

Джефри Хинтън, пионер в областта на AI, често наричан "кръстникът на AI", още миналата година предупреди, че усъвършенстваните програми "могат да избягат от контрол, като напишат свой собствен компютърен код, за да се модифицират".

"Един от начините, по които тези системи могат да избягат от контрол, е като напишат свой компютърен код. Това е нещо, за което трябва сериозно да се притесняваме", заяви Хинтън в интервю за CBS през октомври.

Хинтън дори напусна поста на вицепрезидент и инженер в Google, като изрази загриженост как компанията се справя с безопасността и етиката на изкуствения интелект.

Според Беньоф, технологичната индустрия ще трябва да гарантира, че AI ще избегне проблеми като манипулиране на убежденията чрез алгоритми за препоръки по време на изборни кампании и нарушаване на неприкосновеността на личния живот.

"Досега не сме имали такъв вид интерактивност" с инструменти, базирани на изкуствен интелект, обясни Беньоф пред публиката в Давос. "Но все още не му се доверяваме напълно. Така че трябва да намерим пресечна точка на доверието".

Водещи експерти сравняват рисковете от AI с пандемия и ядрена война Намаляването на риска от изчезване на човечеството вследствие на дейноста на AI трябва да бъде глобален приоритет

Ограниченията на LLM

Джак Хидари, главен изпълнителен директор на SandboxAQ, отхвърля възторга, че AI наближава етап, в който ще придобие "обща" интелигентност. Според него, системите все още имат много проблеми за отстраняване.

Според него, чатботовете като ChatGPT са преминали теста, наречен "игра на имитация" и разработен от британския компютърен учен Алън Тюринг, за да се определи дали някой общува с машина и човек. Но една голяма област, в която AI липсва, е здравият разум.

"Едно от нещата, които видяхме от LLM (големи езикови модели), е, че може да пише изречения за колежани, но понякога е много трудно в тях да се намери здрав разум. И когато попитате: "Как хората пресичат улицата?", той дори не може да разпознае пешеходна пътека, за разлика от малките деца".

GPT-4 става мързелив и глупав: Охладете очакванията си, съветват учениСред основните проблеми на технологията са отслабена логика, грешни отговори, загуба на информация, проблеми със следването на инструкции

Хидари има сериозна прогноза за това как ще се развие технологията на изкуствения интелект през 2024 г:

Тази година ще бъде първата, в която усъвършенстван софтуер за комуникация с изкуствен интелект ще бъде зареден в хуманоиден робот.

"Ще видим момента като пускането на ChatGPT за въплътените хуманоидни роботи с AI през 2024 г., а след това и през 2025 г.

Това не значи, че роботите ще слязат от конвейера, но ще ги видим да правят демонстрации в реалността, използвайки своята интелигентност, мозък, може би използвайки LLM и други техники на AI.

Вече 20 компании са получили подкрепа за създаване на хуманоидни роботи, в допълнение, разбива се, към Tesla и много други, така че мисля, че тази година ще се извърши преобразуване", допълва Хидари.