Опасният китайски изкуствен интелект, който предвижда престъпленията

6567
Опасният китайски изкуствен интелект, който предвижда престъпленията

© pexels.com

Изкуственият интелект (AI) има своите преимущества, когато се използва за наблюдение на населението - например, за подобряване на нивото на сигурността, но може да се превърне в заплаха за неприкосновеността на личния живот и самата свобода, пише The New York Times.

Според източници на изданието, Китай проучва възможностите за разработване и внедряване на нови технологии в обществените пространства, които ще позволяват на държавата да предвижда извършването на престъпления, както и провеждането на протести.

За целта ще бъде използвано огромно количество данни. Те ще се събират чрез наблюдение на навиците на 1.4 млрд. граждани и инструменти за лицево разпознаване, които са на мода в страната от няколко години.

Технологията с изкуствен интелект ще помогне на Китай да разкрива престъпления в процеса на тяхното кроене. Например, като регистрира среща на трима души с криминални досиета в пекински квартал.

Също така с този подход местните власти ще могат да следят активистите, които са участвали в протести, както и хора, които страдат от психически проблеми.

Милиардер: Изкуственият интелект ще доминира на работното място в бъдещеМярк Кюбан смята, че изкуственият интелект ще се превърне в съществено важна част за компаниите - както лаптопите и смартфоните

Така, когато изкуственият интелект засече подозрително поведение на дадено лице - нещо, което е извън неговата рутина, той ще може да уведоми властите, така че те да разследват възможността да бъде извършено престъпление.

Според медиите в САЩ китайската държава отдавна работи върху внедряването на технологията. Тя ще бъде използвана не само срещу потенциални престъпници, но и при уязвими групи, като имигранти, етнически малцинства, хора с психично разстройство и други.

По данни на The New York Times изкуственият интелект ще бъде инструктиран и да не наблюдава определени хора, по-специално държавни служители.

На този етап системата се разработва от китайския стартъп Megvii. По думите на основателя и изпълнителния му директор Юин Ки, би било ужасяващо, ако хора гледаха камерите, но зад тях стои само система.

Това е като търсачката, която използваме всеки ден, за да сърфираме в интернет. Тя е много неутрална. Предполага се, че е нещо добронамерено, допълва той.

Според Ки, благодарение на използването на тази система за наблюдение, "лошите няма къде да се скрият".

Въпреки че технологията не е в действие в момента, Китай вече има подобни решения, разработени от други компании. Една от тях е способна да предвиди организирането на социални протести и е дело на компанията Hikvision.


Фалшиво бъдеще: Как ще се ориентираме в морето от дийпфейк видеа и снимки Фанатичната аудитория на редактирано съдържание често отчаяно иска да вярва, че нещо е истинско, въпреки всички признаци за обратното

По-конкретно, тази система събира данни за китайски вносители на петиции - хора, които се опитват да подадат жалби срещу местни служители, и ги оценява по отношение на вероятността да пътуват до Пекин. В бъдеще данните ще се използват за обучение на модели за машинно обучение.

Свобода и личен живот?

Използването на технология за контрол на населението не е нещо ново в Китай. Държавата е сред водещите, когато става въпрос за използване на лицево разпознаване на обществени места. Експертите са загрижени относно употребата на този тип инструменти като контролна мярка срещу малцинствата, живеещи в страната.

По отношение на използването на нови интелигентни системи за прогнозиране на престъпления, Хуан Игнасио Руйе, професор по изкуствен интелект и роботика в Международния университет в Ла Риоха (UNIR), подчертава две големи опасности, пише abc.es.

До десетилетие ще имаме свой дигитален близнакТой ще ни дава обратна връзка и в един момент ще може да предрича нашия успех или провал

Няма съмнение, че използването на такъв AI засяга неприкосновеността на хората. Събират се данни, в които се смесва информация от публичната сфера, чрез камерите, които държавата е инсталирала по улиците, а също и в частната сфера. Поверителността на човека е напълно нарушена, подчертава експертът.

Вторият риск е свързан с подкопаването на идеята за лична свобода. Това, че на един човек му е хрумнало да извърши престъпление, не означава, че той ще го направи наистина. Може в един момент да промени решението си.

За разлика от Китай, Европейският съюз от известно време търси начин да регулира използването на AI, особено този, който може да бъде по-опасен за потребителя.

Миналия май Европейският парламент одобри класиране на системи, които използват тази технология, в което се посочва в какви ситуации и кой може да прибегне до нейното използване в зависимост от риска.

Българският бизнес

Подобни статии

Най-четени статии

Facebook Коментари

Добави коментар

Екипът на Profit.bg Ви благодари, че използвате кирилица за вашите коментари.
В случай, че коментарът Ви съдържа нецензурни квалификации и лични нападки или обиди на расова, сексуална, етническа или верска основа, той ще бъде изтрит от модератора на сайта.

Абонирайте се за електронния
информационен бюлетин на Profit.bg