„Малко сме уплашени“: Сам Алтман предупреждава за рисковете от AI

1579
„Малко сме уплашени“: Сам Алтман предупреждава за рисковете от AI

© Getty Images / Сам Алтман, основател на OpenAI

Сам Алтман, главен изпълнителен директор на OpenAI, компанията, която разработи противоречивото потребителско приложение за изкуствен интелект ChatGPT, предупреди, че технологията идва с реални опасности, тъй като променя обществото.
 
37-годишният Алтман подчерта, че регулаторите и обществото трябва да бъдат ангажирани с технологията, за да предпазят човечеството от потенциално негативни последици. „Тук трябва да внимаваме“, каза Алтман пред ABC News в четвъртък, добавяйки: „Мисля, че хората трябва да са щастливи, че сме малко уплашени от това."
 
„Особено съм притеснен, че тези модели могат да бъдат използвани за широкомащабна дезинформация“, каза Алтман в интервюто за ABC. „Сега, когато стават все по-добри в писането на компютърен код, те могат да бъдат използвани за кибератаки.“

Въпреки опасностите, каза Алтман, това може да бъде и „най-великата технология, която човечеството досега е разработвало“.
 

Предупреждението идва малко след като OpenAI пусна най-новата версия на своя езиков AI модел, GPT-4 - по-малко от четири месеца след пускането на оригиналната версия, превърнала се в най-бързо развиващото се потребителско приложение в историята.
 
В интервюто AI инженерът каза още, че въпреки че новата версия „не е перфектна“, тя е постигнала 90% в САЩ на адвокатските изпити и почти перфектен резултат на гимназиалния тест по математика SAT. Може също така да пише компютърен код на повечето езици за програмиране, каза той.
 
Страховете от изкуствения интелект, насочен към потребителите, и изкуствения интелект като цяло се фокусират върху това, че хората ще бъдат заменени от машини. Но Алтман посочи, че AI работи само под ръководство на хора.
 

„Това е инструмент, който е в голяма степен под човешки контрол“, каза Алтман, но добави, че има притеснения за това кои хора имат контрол върху него.
 
„Ще има и хора, които не спазват някои от ограниченията за безопасност, които ние въвеждаме“, каза още той. „Мисля, че обществото разполага с ограничено време, за да разбере как да реагира на това, как да го регулира, как да се справи с него.“
 
Изпълнителният директор на Tesla, Илон Мъск, един от първите инвеститори в OpenAI, многократно е изказвал предупреждения, че AI или AGI – генеративният изкуствен интелект – е по-опасен от ядрено оръжие.
 
Мъск изрази загриженост, че Microsoft, която хоства ChatGPT на своята търсачка Bing, е разпуснала своя отдел за етичен надзор. „Няма регулаторен надзор върху AI, което е основен проблем. Призовавам за регулиране на безопасността на AI повече от десетилетие!“, туитна Мъск през декември.
 

Тази седмица Мъск отново изрази тревога, в която обаче позиционира своята компания за медицински изделия Neuralink, за която няколко пъти е казвал, че скоро ще започне изпитания на революционен мозъчен имплант за лечение на болести като парализа и слепота върху хора.

„Какво ще остане на нас хората? По-добре да продължим с Neuralink!", туитна Мъск. 

Властите в САЩ не позволяват на Мъск да тества чиповете си върху хора Досега отказът не беше публично достояние, както и факта, че в мотивацията на решението си FDA очертава десетки проблеми

В четвъртък Алтман призна, че последната версия използва дедуктивни разсъждения, а не запаметяване, процес, който може да доведе до странни отговори.

„Нещото, за което най-много се опитвам да предупредя хората, е това, което наричаме „проблем с халюцинациите“, каза Алтман. „Моделът уверено ще заяви нещата, сякаш са факти, които са изцяло измислени“.
 
Правилният начин да мислим за моделите, които създаваме, е двигател за разсъждения, а не база данни с факти, добави той. „Въпреки че технологията може да действа като база данни с факти, това не е специалното в тях – това, което искаме да правят, е нещо по-близко до способността да разсъждават, а не да запаметяват“.

Българският бизнес

Подобни статии

Най-четени статии

Facebook Коментари

Добави коментар

Екипът на Profit.bg Ви благодари, че използвате кирилица за вашите коментари.
В случай, че коментарът Ви съдържа нецензурни квалификации и лични нападки или обиди на расова, сексуална, етническа или верска основа, той ще бъде изтрит от модератора на сайта.

Абонирайте се за електронния
информационен бюлетин на Profit.bg