Опасният китайски изкуствен интелект, който предвижда престъпленията
Изкуственият интелект (AI) има своите преимущества, когато се използва за наблюдение на населението - например, за подобряване на нивото на сигурността, но може да се превърне в заплаха за неприкосновеността на личния живот и самата свобода, пише The New York Times.
Според източници на изданието, Китай проучва възможностите за разработване и внедряване на нови технологии в обществените пространства, които ще позволяват на държавата да предвижда извършването на престъпления, както и провеждането на протести.
За целта ще бъде използвано огромно количество данни. Те ще се събират чрез наблюдение на навиците на 1.4 млрд. граждани и инструменти за лицево разпознаване, които са на мода в страната от няколко години.
Технологията с изкуствен интелект ще помогне на Китай да разкрива престъпления в процеса на тяхното кроене. Например, като регистрира среща на трима души с криминални досиета в пекински квартал.
Също така с този подход местните власти ще могат да следят активистите, които са участвали в протести, както и хора, които страдат от психически проблеми.
Така, когато изкуственият интелект засече подозрително поведение на дадено лице - нещо, което е извън неговата рутина, той ще може да уведоми властите, така че те да разследват възможността да бъде извършено престъпление.
Според медиите в САЩ китайската държава отдавна работи върху внедряването на технологията. Тя ще бъде използвана не само срещу потенциални престъпници, но и при уязвими групи, като имигранти, етнически малцинства, хора с психично разстройство и други.
По данни на The New York Times изкуственият интелект ще бъде инструктиран и да не наблюдава определени хора, по-специално държавни служители.
На този етап системата се разработва от китайския стартъп Megvii. По думите на основателя и изпълнителния му директор Юин Ки, би било ужасяващо, ако хора гледаха камерите, но зад тях стои само система.
Това е като търсачката, която използваме всеки ден, за да сърфираме в интернет. Тя е много неутрална. Предполага се, че е нещо добронамерено, допълва той.
Според Ки, благодарение на използването на тази система за наблюдение, "лошите няма къде да се скрият".
Въпреки че технологията не е в действие в момента, Китай вече има подобни решения, разработени от други компании. Една от тях е способна да предвиди организирането на социални протести и е дело на компанията Hikvision.
По-конкретно, тази система събира данни за китайски вносители на петиции - хора, които се опитват да подадат жалби срещу местни служители, и ги оценява по отношение на вероятността да пътуват до Пекин. В бъдеще данните ще се използват за обучение на модели за машинно обучение.
Свобода и личен живот?
Използването на технология за контрол на населението не е нещо ново в Китай. Държавата е сред водещите, когато става въпрос за използване на лицево разпознаване на обществени места. Експертите са загрижени относно употребата на този тип инструменти като контролна мярка срещу малцинствата, живеещи в страната.
По отношение на използването на нови интелигентни системи за прогнозиране на престъпления, Хуан Игнасио Руйе, професор по изкуствен интелект и роботика в Международния университет в Ла Риоха (UNIR), подчертава две големи опасности, пише abc.es.
Няма съмнение, че използването на такъв AI засяга неприкосновеността на хората. Събират се данни, в които се смесва информация от публичната сфера, чрез камерите, които държавата е инсталирала по улиците, а също и в частната сфера. Поверителността на човека е напълно нарушена, подчертава експертът.
Вторият риск е свързан с подкопаването на идеята за лична свобода. Това, че на един човек му е хрумнало да извърши престъпление, не означава, че той ще го направи наистина. Може в един момент да промени решението си.
За разлика от Китай, Европейският съюз от известно време търси начин да регулира използването на AI, особено този, който може да бъде по-опасен за потребителя.
Миналия май Европейският парламент одобри класиране на системи, които използват тази технология, в което се посочва в какви ситуации и кой може да прибегне до нейното използване в зависимост от риска.