Сам Алтман, главен изпълнителен директор на OpenAI, компанията, която разработи противоречивото потребителско приложение за изкуствен интелект ChatGPT, предупреди, че технологията идва с реални опасности, тъй като променя обществото.

37-годишният Алтман подчерта, че регулаторите и обществото трябва да бъдат ангажирани с технологията, за да предпазят човечеството от потенциално негативни последици. „Тук трябва да внимаваме“, каза Алтман пред ABC News в четвъртък, добавяйки: „Мисля, че хората трябва да са щастливи, че сме малко уплашени от това."

„Особено съм притеснен, че тези модели могат да бъдат използвани за широкомащабна дезинформация“, каза Алтман в интервюто за ABC. „Сега, когато стават все по-добри в писането на компютърен код, те могат да бъдат използвани за кибератаки.“


Въпреки опасностите, каза Алтман, това може да бъде и „най-великата технология, която човечеството досега е разработвало“.

GPT-4 се сблъсква с първи критики за липса на прозрачностОткритостта е важна, особено когато говорим за трансформираща технология, категорични са критици на модела


Предупреждението идва малко след като OpenAI пусна най-новата версия на своя езиков AI модел, GPT-4 - по-малко от четири месеца след пускането на оригиналната версия, превърнала се в най-бързо развиващото се потребителско приложение в историята. В интервюто AI инженерът каза още, че въпреки че новата версия „не е перфектна“, тя е постигнала 90% в САЩ на адвокатските изпити и почти перфектен резултат на гимназиалния тест по математика SAT. Може също така да пише компютърен код на повечето езици за програмиране, каза той. Страховете от изкуствения интелект, насочен към потребителите, и изкуствения интелект като цяло се фокусират върху това, че хората ще бъдат заменени от машини. Но Алтман посочи, че AI работи само под ръководство на хора.

Сам Алтман 9 години по-рано: Най-добрите идеи често изглеждат лошиНаправете продукт, който хората да обикнат, казва основателят на OpenAI


„Това е инструмент, който е в голяма степен под човешки контрол“, каза Алтман, но добави, че има притеснения за това кои хора имат контрол върху него. „Ще има и хора, които не спазват някои от ограниченията за безопасност, които ние въвеждаме“, каза още той. „Мисля, че обществото разполага с ограничено време, за да разбере как да реагира на това, как да го регулира, как да се справи с него.“

Изпълнителният директор на Tesla, Илон Мъск, един от първите инвеститори в OpenAI, многократно е изказвал предупреждения, че AI или AGI – генеративният изкуствен интелект – е по-опасен от ядрено оръжие.

Мъск изрази загриженост, че Microsoft, която хоства ChatGPT на своята търсачка Bing, е разпуснала своя отдел за етичен надзор. „Няма регулаторен надзор върху AI, което е основен проблем. Призовавам за регулиране на безопасността на AI повече от десетилетие!“, туитна Мъск през декември.

Бъди новатор, или умри. Как AI ще реши бъдещите войни между великите силиАко необходимостта е майка на изобретението, войната е акушерката на иновациите, казва Ерик Шмид


Тази седмица Мъск отново изрази тревога, в която обаче позиционира своята компания за медицински изделия Neuralink, за която няколко пъти е казвал, че скоро ще започне изпитания на революционен мозъчен имплант за лечение на болести като парализа и слепота върху хора.

„Какво ще остане на нас хората? По-добре да продължим с Neuralink!", туитна Мъск.

Властите в САЩ не позволяват на Мъск да тества чиповете си върху хора Досега отказът не беше публично достояние, както и факта, че в мотивацията на решението си FDA очертава десетки проблеми

В четвъртък Алтман призна, че последната версия използва дедуктивни разсъждения, а не запаметяване, процес, който може да доведе до странни отговори.


„Нещото, за което най-много се опитвам да предупредя хората, е това, което наричаме „проблем с халюцинациите“, каза Алтман. „Моделът уверено ще заяви нещата, сякаш са факти, които са изцяло измислени“.

Правилният начин да мислим за моделите, които създаваме, е двигател за разсъждения, а не база данни с факти, добави той. „Въпреки че технологията може да действа като база данни с факти, това не е специалното в тях – това, което искаме да правят, е нещо по-близко до способността да разсъждават, а не да запаметяват“.