Как Facebook решава кое насилствено съдържание да показва
Facebook понася много критики за начина, по който се справя с насилственото и притеснителното съдържание, което потребителите виждат на стените си.
Докато компанията се опитва да се справя с видеа, в които има самоубийства и убийство, качени в платформата, нова публикация от The Guardian разкрива нови данни за неудобната роля, която гигантът в областта на социалните медии в момента играе като регулатор на съдържанието.
Публикацията се базира на изтекли документи, за които се твърди, че включват вътрешните правила и насоки, които Facebook използва, за да преглежда постове, съдържащи насилие, омраза, голота, самонаранявания и тероризъм. Те подчертават опитите на компанията да цензурира вредното съдържание, без в същото време да бъде обвинявана, че ограничава свободата на потребителите си да се изразяват.
Според The Guardian документите са "предоставени на модераторите на Facebook в последната година." От Facebook отказаха да потвърдят изнесените от Guardian данни, но и не ги опровергаха.
"Работим здраво, за да направи Facebook колкото се може по-безопасно място, докато в същото време даваме път на свободата на словото," заявява пред CNNMoney Моника Бикърт, която оглавява глобалната политика на компанията. "Това изисква влагането на много мисъл в сложни и често трудни въпроси, но да вършим нещата правилно е нещо, което приемаме много насериозно."
Главният изпълнителен директор на Facebook Марк Закърбърг обяви по-рано този месец, че компанията ще наеме още 3 000 служители, които ще помагат с "преглеждането на милионите доклади за нередно съдържание, което получаваме всяка седмица."
Ето и кои са основните точки от публикацията на Guardian:
Насилствените заплахи срещу държавни глави са забранени.
Документите инструктират модераторите на Facebook да премахват изказвания, като "Някой да застреля Тръмп," защото като президент на САЩ той е в защитена категория.
В същото време коментари, като "За да прекършиш врата на една к*чка, приложи целия възможен натиск в средата на гърлото й" или "Надявам се някой да те убие," може да останат на сайта, защото не са считани за правдоподобни.
Видеа, съдържащи насилствена смърт, също не винаги биват изтривани, защото те могат да помогнат за заострянето на вниманието към психически заболявания или военни престъпления, според напътствията. Подобни видеа биват маркирани като притеснителни и скривани от непълнолетните потребители.
Facebook позволява на потребителите да стриймват видео със самонаранявания и опити за самоубийство, защото компанията не иска да цензурира или наказва хора в беда, според същите документи. Ако на съответния човек няма как повече да му се помогне, видеото ще бъде свалено, освен ако инцидентът не бъде счетен за новина.
Модераторите са съветвани да игнорират заплахите за самоубийство чрез хаштагове или емотикони, или пък когато предложеният метод е малко вероятно да е успешен.
От Facebook споделяли в миналото, че социалната мрежа e в уникална позиция да направи нещо повече по отношение на вълната от самоубийства. През март компанията обяви, че тества възможността изкуствен интелект да идентифицира потенциални постове, свързани със "самоубийство или самонараняване".
Голотата изглежда е сива зона
Документите разкрива нови напътствия по отношение на голотата, след като Facebook бе разкритикувана миналата година за това, че е премахнала легендарна снимка от Виетнамската война на голо момиче. Подобни снимки сега са позволени под формата на "новинарски изключения."
Снимки, изобразяващи "детска голота в контекста на Холокоста," обаче не са разрешение на сайта.
От друга страна, "изработено на ръка" изкуство, показващо голота и сексуална дейност, е позволено", според документите. Дигитално изкуство, показващо същия тип съдържание, не е позволено.
Порното за отмъщение нарушава стандартите за насилие на Facebook и също бива премахнато. От социалната мрежа дефинират порното за отмъщение като споделянето на голи/полуголи снимки на някой, публично или с хора, от които потърпешият не е искал/а да бъдат виждани с цел той/тя да бъдат засрамени или унизени.