Две седмици след като членове на Конгреса зададоха въпрос на главния изпълнителен директор на OpenAI Сам Aлтман за потенциала на инструментите с изкуствен интелект (AI) да разпространяват дезинформация, да позволяват неправомерна намеса в изборите и да отнемат работни места от хората, той и други представители на индустрията посочват една много по-страшна възможност - AI апокалипсис.

Алтман, чиято компания стои зад добилия широка популярност чатбот ChatGPT, се присъединява към главния изпълнителен директор на DeepMind на Google Демис Хасабис, главния технически директор на Microsoft Кевин Скот и десетки други изследователи на AI и бизнес лидери, които миналия месец подписаха писмо с едно изречение, в което се казва "Намаляването на риска от изчезване на човечеството, причинено от AI, трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемиите и ядрената война."

Суровото предупреждение беше широко отразено в пресата, като някои анализатори дори изказват мнение, че то показва необходимостта от по-сериозно отношение към подобни апокалиптични сценарии. Но то също така подчертава една важна динамика в Силициевата долина в този момент - въпреки предупрежденията компаниите се надпреварват да инвестират в тази технология и да я внедряват в продукти, които достигат до милиарди хора.

Въздържайте се от създаване на деца, съветва AI експерт
Тази динамика излиза и извън самия пазар на изкуствения интелект. Например главният изпълнителен директор на Tesla Илон Мъск заявява в телевизионно интервю през април, че AI може да доведе до "унищожаване на цивилизацията", но остава дълбоко ангажиран с технологията чрез инвестиции в своята разрастваща се бизнес империя. Той дори е изразявал желанието си да създаде конкурент на Microsoft и Google в областта.

Някои AI експерти казват, че насочване на вниманието върху далечни сценарии може да отклони фокуса от по-непосредствените вреди, които новото поколение мощни инструменти може да причини на хората и общностите, включително разпространяване на дезинформация, затвърждаване на предразсъдъци и създаване на условия за дискриминация в различни услуги.

"Мотивите изглеждат смесени", казва пред CNN Гари Маркъс, изследовател на AI и почетен професор на Нюйоркския университет, който миналия месец се е изправил пред Конгреса заедно с Алтман. Според него някои от изпълнителните директори вероятно са "искрено притеснени от това, което са отприщили", но други може би се опитват да насочат общественото внимание към "абстрактни възможности, за да го отклонят от по-непосредствените негативи".

Представители на Google и OpenAI не са отговорили на запитване на медийната агенция, а говорител на Microsoft казва: "Оптимистично настроени сме за бъдещето на AI и смятаме, че постиженията на технологията ще решат много повече предизвикателства, отколкото ще създадат, но също така сме последователни в убеждението си, че когато създавате технологии, които могат да променят света, трябва също така да гарантирате, че те се използват отговорно."

Сам Алтман призова за международно регулиране на изкуствения интелектПрез последните месеци правителствата са подложени на натиск за регулация на AI
Непосредствена загриженост срещу въображаеми сценарии

За Маркъс, самоопределящ се като критик на хипотезата, че AI ще доведе до някакъв библейски катаклизъм, "най-голямата непосредствена заплаха е тази за демокрацията и идва от масовото производство на убедителна дезинформация".

Инструментите за генеративен AI като ChatGPT и Dall-E на OpenAI се обучават на огромни масиви от онлайн данни, за да създават убедителни писмени произведения и изображения в отговор на подкани от потребителите. С помощта на тези инструменти например може бързо да се имитира стила или облика на публични личности в опит да се създадат кампании за дезинформация.

В показанията си пред Конгреса Алтман разкрива, че потенциалът за използване на изкуствен интелект за манипулиране на гласоподаватели и разпространение на дезинформация са сред "областите, които ме тревожат най-много".

Но технологията предизвиква опасения и в по-обикновени случаи на употреба. Подобни инструменти са били обвинявани многократно, че дават грешни отговори на потребителски запитвания, както и такива, потенциално затвърждаващи расови и полови предразсъдъци.

Водещи експерти сравняват рисковете от AI с пандемия и ядрена война Намаляването на риска от изчезване на човечеството вследствие на дейноста на AI трябва да бъде глобален приоритет
Емили Бендер, професор във Вашингтонския университет и директор на Лабораторията по компютърна лингвистика, обяснява пред CNN, че някои компании може да искат да отклонят вниманието от предубежденията, заложени в техните данни, както и от тревожните твърдения за начина, по който системите им са обучени.

Бендер цитира рискове, свързани с интелектуалната собственост на някои от данните, върху които се обучават тези системи, както и твърдения, че компаниите са възложили работата по обработката на някои от най-лошите части от обучителните масиви на нископлатени работници в различни краища на света.

"Ако обществеността и регулаторните органи се съсредоточат върху тези въображаеми научнофантастични сценарии, тогава подобни компании дълго ще могат да се измъкват от обвиненията за кражба на данни и експлоататорски практики", категорична е Бендер.

Оказване на влияние върху регулаторите

Регулаторните органи може би са истинската целева аудитория на съобщенията на технологичната индустрия за бъдеще, изпълнено с рискове от AI.

По думите на Бендер изпълнителните директори по същество казват: "Тези неща са много, много опасни и ние сме единствените, които разбират как да ги ограничат".

От железницата до AI - технологичният напредък плаши хората от векове В първите дни на железницата много хора са я смятали за дело на дявола, с изкуствения интелект ситуацията не е по-различна
Ако се съди по появата на Алтман пред Конгреса, тази стратегия може и да проработи. Той сякаш успява да спечели Вашингтон, повтаряйки опасенията на законодателите относно AI - технология, която мнозина законодатели все още се опитват да разберат, и да направи предложения как човечеството да се справи с тях, посочва още медията и цитира отново Бендер, според която този подход към регулирането би бил "изключително проблематичен", тъй като би могъл да даде на индустрията влияние върху регулаторните органи, натоварени да я държат отговорна.

Едновременно с това подобен подход също така може да остави без внимание гласовете и приноса на други хора и общности, които изпитват отрицателните въздействия на тази технология.

"Ако регулаторите се ориентират към хората, които създават и продават технологията, като единствените, които биха могли да я разберат и следователно да предоставят информация за това как трябва да работят регулациите, това ще бъде голяма грешка", смята Бендер и задава въпроса: "Ако технологичната индустрия вярва, че това може да доведе до изчезването на човечеството, защо просто не спре да го развива?"