Как Facebook ще се бори с терористичното съдържание?
Facebook разкри подробности около стъпките, които предприема, за премахване на съдържание, свързано с тероризъм, съобщава ВВС.
Ходът е предприет на фона на нарастващия натиск от правителствата към технологичните компании да направят повече за сваляването на материали, съдържащи терористична пропаганда.
Facebook съобщи, че иска да бъде по-открита за работата, която върши. Компанията допълни пред ВВС, че използва изкуствен интелект, за да открива снимки, видеа и текст, свързани с тероризъм, както и фалшиви акаунти.
„Искаме да откриваме терористично съдържание незабавно, преди хората в нашата общност да са го видели“, отбеляза компанията.
Небезопасно пространство
Способността на Ислямска държава да използва технологиите, за да радикализира и наема хора, постави сериозни въпроси пред големите технологични компании. Те бяха критикувани, че управляват платформи, използвани за разпространяване на екстремистка идеология и вдъхновяване на хора да извършват актове на насилие.
В последните месеци правителствата на редица държави настояваха за повече действия, а в Европа дискусията се насочва към приемане на закони или регулации. По-рано тази седмица в Париж британският премиер Тереза Мей и френският президент Еманюел Макрон започнаха обща кампания за гарантиране, че интернет не може да бъде използван като безопасно място за терористи и престъпници.
Facebook съобщи, че е ангажирана с откриването на нови начини за намиране и отстраняване на материали и сега иска да превърне думите в дела. „Искаме да сме много открити с нашата общност за това какво опитваме да правим, за да е ясно, че Facebook е наистина враждебна среда за терористични групировки“, казва Моника Бикърт, директор на отдел „Управление на глобалните политики“ в социалната мрежа.
Преди време Facebook обяви, че добавя 3000 служители, които ще преценяват съдържанието, отбелязано като опасно от потребителите. Но допълни, че вече над половината от акаунтите, които премахва заради подкрепа на тероризма, са били открити от служители на компанията.
Социалната мрежа отбеляза, че използва нова технология за подобряване на проактивната работа. „Знаем, че можем да се справим по-добре в използването на технологиите и по-конкретно на изкуствения интелект, за да спрем разпространението на терористично съдържание във Facebook“, уточни компанията.
Автоматичен анализ
Един от аспектите на новата технология е разпознаването на образи. Ако човек опита да качи свързана с тероризъм снимка или видео, системите търсят дали тя съответства на известно преди това екстремистко съдържание, за да спрат появата им на първо място.
Втората област е експериментирането с изкуствен интелект за разбиране на текст, който може да насърчава тероризма. Той анализира текст, който преди това е бил премахнат заради подкрепа на групировки, като Ислямска държава, и опитва да открива текстови сигнали, че подобно съдържание може да е терористична пропаганда.
Анализът е резултат от алгоритъм, който знае как да открива сходни постове. Машинното научаване би трябвало да означава, че този процес ще се подобри с времето. Компанията съобщава, че използва алгоритми и за да открива „клъстери“ от акаунти или снимки, свързани с подкрепа за тероризма.
Това ще включва търсенето на сигнали, като например дали потребителят има приятели с голям брой акаунти, които са били премахнати заради подкрепа на тероризма. Компанията съобщи, че работи и по начини за откриване на „рецидивисти“, които създават акаунти, само за да публикуват терористични материали и да търсят начини да заобиколят съществуващи системи и контрол.
„Технологията ни ще продължи да се развива, тъй като терористичната заплаха онлайн също се развива. Нашите решения трябва да бъдат много динамични", каза Бикърт.
Едно от големите затруднения при автоматизирането на процеса е рискът да бъде свалено съдържание, свързано с тероризъм, което обаче не го подкрепя. Такива са новинарските информации за видео пропагандата на Ислямска държава, които могат да включват текстове или кадри.
Докато снимките със сексуална злоупотреба над деца са забранени и могат да бъдат свалени, снимка, свързана с тероризъм, като член на Ислямска държава, развяващ флаг, може да се използва за възхвала на даден акт в един контект или да бъде използвана като част от кампания за борба с екстремизма в друг. „Контекстът е всичко“, казва Бикърт.
Компанията съобщава, че алгоритмите й все още не са толкова добри, колкото хората в разбирането на контекста, което помага за разграничаването на различните категории. Facebook е създала екип от специалисти, така че сега има 150 души, работещи конкретно за борбата с тероризма.
Сред тях са университетски преподаватели, бивши прокурори, бивши служители на правоохранителни служби, анализатори и инженери.
Според критиците затрудненията могат да са огромни за сайт с два милиарда потребители, но компанията печели милиарди долари от съдържание на сайта си и може да използва повече ресурси и повече от най-добрите си инженери за справяне с проблема.
Facebook информира, че е започнала да съсредоточава „най-развитите си техники“ в борбата с тероризма и сега смята, че трябва да пристъпи към действия.