Илон Мъск и група експерти по изкуствен интелект и ръководители на индустрията са излезли с призив за шестмесечна пауза в разработването на системи, по-мощни от току-що пуснатия GPT-4 на OpenAI.

В отворено писмо те посочват потенциалните рискове за обществото и човечеството като цяло, съобщава Reuters.

Писмото, разпратено от института с нестопанска цел Future of Life Institute и подписано от повече от 1000 души, включително Мъск, призовава за спиране на бързото развитие на подобни системи, докато не бъдат разработени, внедрени и одитирани от независими експерти общи протоколи за безопасност.

„Мощните AI системи трябва да бъдат разработвани само след като сме уверени, че техните ефекти ще бъдат положителни, а рисковете - управляеми“, се казва в писмото, което описва подробно потенциалните рискове за обществото и цивилизацията от системите с изкуствен интелект. В списъка влизат както икономически, така и политически смущения, а учените се обръщат към разработчиците със съвет да работят с регулаторите за създаване на стандарти за разработка и интеграция на изкуствен интелект.

„Малко сме уплашени“: Сам Алтман предупреждава за рисковете от AIСам Алтман подчертава необходимостта да се предпазим от негативните последици от технологията, тъй като компанията пусна нова версия GPT-4
Сред имената, стоящи зад писмото, са и тези на главния изпълнителен директор на Stability AI Емад Мостаке и изследователи от притежаваната от Alphabet DeepMind. То идва два дни, след като Европол се присъедини към организациите, споделящи етични и правни опасения, свързани с широкото използване на напреднал AI като ChatGPT, предупреждавайки за потенциалната злоупотреба със системата при опити за фишинг, дезинформация и киберпрестъпления.

Междувременно правителството на Обединеното кралство дори излезе с предложение за „адаптивна“ регулаторна рамка за изкуствения интелект. Подходът на правителството в Лондон, очертан в документа, пише Reuters, ще раздели отговорността за управлението на AI-платформи между регулаторите, отговарящи за правата на човека, здравето и безопасността, и тези по конкуренцията.

След пускането си миналата година ChatGPT подтикна много конкуренти на OpenAI и Microsoft да ускорят разработването на подобни големи езикови модели, а компаниите да интегрират генеративни AI модели в своите продукти. Това, логично, предизвика и вълна от негативни коментари, наред с позитивните, тъй като една немалка част от научната общност смята, че технологията все още не е готова за толкова широко използване.

„Писмото не е перфектно, но духът му е правилен - трябва да забавим темпото, докато не разберем по-добре последиците“, казва Гари Маркъс, професор в Нюйоркския университет, който се е подписал в писмото, пред Reuters. „AI могат да причинят сериозна вреда, а големите играчи стават все по-потайни относно това, което правят. Това затруднява защитата на обществото срещу всякакви вреди, които могат да се материализират в един момент.“

Според регистъра за прозрачност на Европейския съюз, Future of Life Institute се финансира основно от “Фондация Мъск”, както и от Фондация на общността на Силиконовата долина.