Когато хората говорят за изкуствен интелект, често изплуват страхове, визуализиращи се под формата на андроиди убийци или могъщи компютри, които завземат света.

Холивудски филми, като Blade Runner или Terminator, разглеждат именно страха от това машината да не се обърне срещу човека.

От гледна точка на бизнеса обаче, ситуацията се разглежда под формата на пари. Прогнозите сочат, че изкуственият интелект (ИИ) може да генерира икономическа стойност за над 1 трилион долара само през тази година и близо 4 трилиона долара до 2022 г.

Новите технологии и автоматизацията обаче предизвикват сериозни въпроси, свързани с етиката и промяната на съществуващия икономически модел.

Понастоящем ИИ се намира доста близо до съзряване, като този термин се тиражира широко от медии и компании. Инвестициите в тези технологии растат постоянно, което надига недоволство, че това се случва за сметка на назрели социални проблеми.

Все пак, докато си говорим за летящи коли, огромна част от света все още се бори за чиста питейна вода и храна.

CNBC разговаря с експерти по тази тема, извеждайки на преден план 5 потенциални сценария, в които най-лошите ни страхове относно ИИ се сбъдват.

Масова безработица

Най-актуалният страх сред анализатори и работници е, че ИИ може да предизвика масова глобална безработица, тъй като редица професии ще станат автоматични и няма да изискват човешка намеса.

„Тези, които вероятно ще загубят работата си, се притесняват най-много”, казва Алан Бънди, професор в University of Edinburgh.

По думите му, загубата на работни места е една от главните причини за надигането на популизма по света, давайки за пример изборът на Доналд Тръмп за президент на САЩ и излизането на Великобритания от Европейския съюз. Според него, в бъдеще хората ще бъдат необходими там, където машините не могат да се справят, но това няма да реши очакваната масова безработица.

Защитниците на ИИ посочват, че технологиите ще създадат нов вид работни места.

Нуждата от инженери ще се повиши драстично, тъй като технологиите няма да могат да се развият без необходимите таланти, работещи за това.

Хората ще използват ИИ за ежедневните си дейности, посочват още защитниците на технологията.

Проучване на Gartner предвижда, че ИИ ще създаде 2.3 млн. работни места и ще елиминира 1.8 млн. такива до 2020 г., което представлява нетно увеличение от 500 хил. работни места. Компанията за проучвания не вярва, че това ще доведе до масови съкращения по света.

В изследване от 2013 г. на Oxford University се посочва, че някои от най-заменяемите професии реално са в сферата на финансите – застрахователни агенти, брокери, банкови служители и данъчни администратори.

Според анализатори и предприемачи, всичко това може да се избегне, ако се пристъпи към преквалифициране на работниците и създаването на нови видове работни места.

Говори се дори за въвеждането на безусловен базов доход, който да компнесира хората, пострадали от автоматизацията, но засега тези ходове изглеждат далеч в бъдещето, тъй като едва ли скоро машините масово ще заменят нуждата от човешка ръка и преценка.

Война

Войната е страх, който винаги е на дневен ред. Развитието на ИИ често се свързва с иновативни военни машини и технологии. Някои се опасяват, че всичко това може да завърши под формата на война.

Шефът на Tesla и SpaceX Илон Мъск предупреди през миналата година, че технологията може да доведе до трета световна война.

Етичният проблем е дълбоко залегнал в разработката на ИИ, тъй като няма никаква гаранция, че новите технологични оръжия няма да се използват на практика. Още повече когато говорим за автономни военни машини, които директно будят асоциации с машини, нападащи хора по собствена воля.

Според Франк ван Хармелен, изследовател на ИИ към Vrije Universiteit Amsterdam, думата „страшно” е напълно точна, когато говорим за автоматизирани оръжия.

„Единствената сфера, в която смятам, че думата „страшно” е точна са автономните оръжейни системи... системи, които могат да приличат или да не приличат на роботи”, казва Хармелен.

„Всякаква компютърна система, ИИ или не, която автоматично решава въпроси на живот и смърт – например дали да изстреля ракета – е действително плашеща идея”, казва той.

По-рано през тази година щатската организация Rand Corporation пусна проучване, в което се твърди, че употребата на ИИ за военни цели може да предизвика ядрена война до 2040 г.

Презумпцията зад тези голи прогнози се крепи на това, че автоматизираните системи могат да направят грешка в преценката си, което да отприщи агресия между държавите.

Още повече, че в историята има такива примери. През 1983 г. съветски офицер на име Станислав Петров забелязва, че руските компютърни системи некоректно бият тревога, че САЩ са изстреляли ядрени ракети.

Благодарение на бдителността на Петров, светът не навлиза в ядрена война.

Роботизирани лекари

Въпреки че експертите като цяло се съгласяват, че ИИ ще бъде полезна технология в медицината. В академичните среди обаче съществува страха, че от новите технологии се очаква твърде много, което може да доведе до деформиране на способността на хората да се справят с множество задачи, тъй като делегират това на машините.

„Всички успешни приложения на ИИ в медицината са невероятно успешни, но имат много тесен обхват на приложение”, казва Алан Бънди, професор в University of Edinburgh.

Според него, има реална опасност човечеството да се довери на машните за своето здраве, при положение че няма гаранция, че те са способни правилно да разчитат различните ситуации.

Доклад от миналата седмица цитира документи на IBM, показващи как техният суперкомпютър Watson е направил множество „опасни и неправилни” назначения за третиране на ракови заболявания.

Други притеснения са свързани с голамата база данни, събирана от пациенти и евентуалната търговия с информация между различни здравни заведения.

Тези данни могат да се използват за предвиждане на евентуални заболявания и прилагане на превенция на база историята на даден пациент, но има и притеснения къде и как ще се съхраняват тези доста чувствителни данни, които лесно могат да се обърнат срещу хората.

Масово наблюдение

Експертите се опасяват още, че ИИ може да бъде използван за масово наблюдение. В Китай, например, този страх изглежда се превръща в реалност.

В различни китайски провинции се прилага комбинация от ИИ и технология за лицево разпознаване като начин за справяне с престъпността.

Китай е огромна страна, където властва комунистическо управление. Като цяло често ситуацията откъм контрол и наблюдение там се оприличава на сценарий по Оруел.

Китай е дом на приблизително 200 млн. камери за наблюдение, сочи информация, публикувана в New York Times.

Азиатската страна е и единствената държава в света, в която същестсува „социална кредитна система”, която следи активността на гражданите и на база това преценява могат ли да получат достъп до услуги, включително до самолетни билети или онлайн платформи за запознанства.

Китай се стреми да стане световен лидер в ИИ областа до 2030 г., опитвайки се да вдигне стойността на своя ИИ сектор до около 150 млрд. долара. Властите инвестират милиарди, за да удовлетворят тази амбиция.

Компанията, която има водещи позиции относно ИИ и лицевото разпознаване в страната, се казва SenseTime. Това е най-скъпият ИИ стартъп в света с оценка в размер на 4.5 млрд. долара.

Един от основните инвеститори в компанията е местният гигант Alibaba. SenseTimes работи с властите в някои мегаполиси, поредоставяйки услуги, свързани с лицево разпознаване и прочее.

Тоби Уолш, професор по ИИ към University of New South Wales, коментира, че наблюдението се намира високо в списъка му за потенциални опасности, които могат да произлязат от ИИ.

Дискриминация

Някои хора могат и да си спомнят за Tay – чатбот, разработен на база ИИ от Microsoft, който бе тестван преди 2 години.

Ботът получи акаунт в Twitter, като за по малко от ден потребителите го тренираха да публикува агресивни публикации в подкрепа на Адолф Хитлер и бялото превъзходство.

Проблемът произлиза от това, че ботът е създаден да имитира поведението на потребителите към самия него.

Взимайки предвид някои тъмни кътчета на интернет, това, че ботът започва да бълва расизъм, не е особена изненада.

В крайна сметка, Microsoft изтриха регистрацията на Tay в платформата. При все че някои възприеха инцидента с чувство за хумор, ситуацията предизвика сериозни дебати за това, че ИИ твърде лесно може да стане предубеден към дадени теми.

Тоби Уолш смята, че дискриминацията е една от неочакваните последици в резултат на навлизането на новите технологии.

Някои учени препоръчват ИИ да бъде създаден така, че да не взима предвид неща, като раса, пол, социална роля и прочее. Но това остава лек политически провкус с леко намигане за социално инженерство.

Ако искаме да създадем машина, която е по-съвършенна от нас, хората, дали реално не създаваме собствения си Бог... или заличител.