Подписаното от Илон Мъск и стотици други лидери писмо, в което се настоява за пауза в изследванията на изкуствения интелект, предизвика огнена буря. Няколко учени заявиха, че изследванията им са използвани в подкрепа на позицията в писмото без да са дали съгласие. Други подписи се оказаха фалшиви, а трети се отказаха от заявената подкрепа, пише The Guardian.

На 22 март над 1800 технологични лидери и учени призоваха за шестмесечна пауза в разработването на системи, „по-мощни“ от тази на GPT-4. Инженери от Amazon, DeepMind, Google, Meta и Microsoft също заявиха подкрепата си към тази позиция.

Разработен от OpenAI, компания, съоснована от Мъск и сега подкрепяна от Microsoft, GPT-4 има способността да поддържа човешки разговор, да композира песни и да обобщава дълги документи. Такива AI системи с „конкурентен на човешкия интелект“ представляват голям риск за човечеството, се твърди в писмото.

„Лабораториите за изкуствен интелект и независимите експерти трябва да използват тази пауза, за да разработят съвместно и внедрят набор от споделени протоколи за безопасност за усъвършенстван дизайн и разработка на AI, които са стриктно одитирани и наблюдавани от независими външни експерти“, се казва още в писмото.

Над 1000 експерти, водени от Мъск, искат пауза в разработката на AI В отворено писмо те посочват потенциалните рискове за обществото и човечеството като цяло

Институтът Future of Life, мозъчният тръст, който координира съставянето на позицията, цитира 12 изследвания от експерти, включително университетски преподаватели, както и настоящи и бивши служители на OpenAI, Google и дъщерното им дружество DeepMind.

В същото време обаче четирима експерти, цитирани в писмото, изразиха недоволство, че изследвания им са били използвани в писмото.

Оказва се също така, че в него фигурират имената на лидери, които всъщност не са го подписвали, сред които Си Дзинпин и главния учен на Meta по изкуствен интелект Ян Лекун, който изясни в Twitter, че не подкрепя позицията за 6-месечна пауза.

Критиците обвиниха Future of Life Institute (FLI), който се финансира основно от Musk Foundation, че дава приоритет на въображаемите апокалиптични сценарии пред по-непосредствените опасности, свързани AI – като расистки или сексистки пристрастия, програмирани в машините.

Сред цитираните изследвания е „За опасностите от стохастичните папагали“, добре познат документ, чийто съавтор е Маргарет Мичъл, която преди това е ръководила изследвания, свързани с етичните проблеми и изкуствения интелект в Google. Мичъл, сега главен учен в компанията за изкуствен интелект Hugging Face, разкритикува писмото, като заяви за Reuters, че не е ясно какво се смята за „по-мощно от GPT4“.

Нейните съавтори Тимнит Гебру и Емили Бендер също критикуваха писмото в Twitter, като Бендер нарече някои от твърденията му „безсмислени“.

Лошите писатели стават по-добри; добрите – по-бързи. Защо ни е страх от AI?ChatGPT е на път да направи революция в икономиката. Зависи от нас как ще изглежда тя

Шири Дори-Хакохен, асистент в университета в Кънектикът, също се противопостави на споменаването на нейните изследвания в писмото. Миналата година тя беше съавтор на статия, в която се твърди, че широкото използване на изкуствен интелект вече крие сериозни рискове. Тя казва пред Reuters, че не е необходимо AI системите да достигнат интелект на човешко ниво, за да изострят тези рискове.

Помолен да коментира критиките, президентът на FLI Макс Тегмарк казва, че както краткосрочните, така и дългосрочните рискове от развитието на изкуственият интелект трябва да се приемат сериозно. „Ако цитираме някого, това просто означава, че твърдим, че той подкрепя това изречение. Това не означава, че те одобряват писмото или ние одобряваме всичко, което те мислят“, казва той пред Reuters.