Социалните медии през 2024: В окото на перфектната буря от дезинформация
Преди месец губернаторът на Флорида Рон Десантис, смятан за основен конкурент на Доналд Тръмп за президентската номинация на Републиканската партия догодина, публикува видео в Twitter.
В него беше показана снимка на Тръмп, прегръщащ главния инфекционист на САЩ д-р Антъни Фаучи. По време на пандемията Тръмп и Фаучи, макар да бяха на ключови позиции, съвсем не се разбираха.
Президентът беше против всякакви мерки, не слагаше маска, а когато се разболя от Covid-19, открито наруши карантината си. Фаучи беше на другия полюс – привърженик на мерките и ваксините, той си спечели немалко врагове, сред които и Тръмп.
Затова е учудващо, че двамата се прегръщат. Или?
Всъщност, не. Снимката, публикувана от Десантис, се оказа фалшификат, генериран от изкуствен интелект.
Измамата бързо беше забелязана от аудиторията, но това е само един от многото примери, още преди кулминацията на надпреварата за президентския пост.
AI като съюзник на политиците
Тенденцията е, че все повече политици започват да се възползват мощен съюзник – AI. И това е само началото.
Ако днес е лесно и възможно да се проверяват публикации и да се установява намесата на AI, съвсем скоро нещата може да се променят. Изкуственият интелект се учи в движение, а и размахът му ще се увеличи.
С други думи – AI има потенциал да удави онлайн потребителите в море от фалшиви новини. И вероятно скоро ще се опита да го направи.
Първият сериозен тест за способностите му се очаква да бъде направен точно по време на президентската кампания в САЩ догодина.
През 2016 г., когато Тръмп стана президент, изкуственият интелект все още не беше толкова разработен. Тогава беше използван арсеналът на социалните мрежи за фалшиви новини.
Кампанията беше успешна.
„Кампанията наближава, но и технологията се развива много бързо. Ние вече виждаме какво влияние би могла да има“, коментира пред CNN Джевин Уест от университета във Вашингтон.
Социалните мрежи отново ще имат ключова роля в избора на новия американски президент.
Фейкнюз Vs. Фактчекинг
С AI, възможностите за създаване на огромно количество фалшиви новини са неограничени. Потребителят, колкото и да е бдителен, не може да ги различи напълно. Но затова пък има фактчекъри, медии, служители за мониторинг и т.н.
Големият въпрос е дали те могат да отговарят на потенциала на AI. С категоричен отговор никой не се ангажира.
Ето един нагледен пример. AI няма абсолютно никакъв проблем за няколко секунди да създаде фалшива новина, да я илюстрира с фалшива снимка и да я разпространи. Дори и най-бързият репортер или фактчекър не може да провери всичко с такава скорост, че да я опровергае навреме.
Всъщност AI може да свърши чудесна работа на всеки, който иска да се намеси в избори. Или да управлява обществени настроения и нагласи, като сам ги създава.
Тази опасност съзнават отлично създателите на ChatGPT. В скорошна научна статия, от компанията OpenAI заявиха, че изкуственият интелект може да промени цялата информационна среда „застрашавайки способността ни да разграничаваме фактите от измислицата“.
Какво обещават "главните заподозрени"
Много от социалните мрежи вече обещаха, че ще пуснат инструменти за разпознаване на съдържанието, генерирано от AI.
TikTok обяви нова политика за обозначаване на синтетични или манипулирани видеа. Според нея те трябва да бъдат ясно описани и да бъде посочено, че става дума за подвеждаща информация.
YouTube също има механизми за обозначаване за модифицирано и манипулирано съдържание.
Meta, която е собственик на Facebook, също твърди, че е въвела такава политика. Това означава посочване на изкуствено генерирано и манипулативно съдържание. От компанията казват, че разбират колко е важно това за политическия процес по време на ключови събития като избори.
Запитани за коментар от CNN, от Twitter изпратиха автоматичен отговор с емотикон.
Откакто Илон Мъск стана собственик на платформата, тя отмени голяма част от функцията за модериране на съдържание и заложи на "бележки на общността", която позволява на потребителите да критикуват точността на съдържанието и да добавят контекст към публикациите на други хора.
В официалния си уебсайт Twitter заявява, че има политика за "синтетична медия", съгласно която може да обозначи или премахне "синтетична, манипулирана или извънконтекстна медия, която може да заблуди или обърка потребителите и да им навреди".
И все пак, както често се случва със социалните медии, предизвикателството е свързано не толкова с наличието на политики, колкото с тяхното прилагане.
Платформите до голяма степен използват комбинация от човешки и автоматичен преглед, за да идентифицират дезинформацията и манипулираните медии.
Компаниите отказаха да предоставят на CNN допълнителни подробности относно процесите за откриване на намеса на изкуствен интелект, включително колко служители участват в тези усилия.
Съдържанието под лупа
Затова напоследък все повече експерти призовават всички социални платформи да въведат политики, изискващи обозначаване на съдържание, генерирано или манипулирано от изкуствен интелект; призовават регулаторите и законодателите да създадат предпазни бариери около изкуствения интелект и да държат технологичните компании отговорни за разпространението на неверни твърдения.
Едно е ясно: Генерираното от AI съдържание не само създава риск потребителите да бъдат подведени, но то може да затрудни доверието им в реалната информация за всичко - от гласуването до кризисните ситуации.
А когато възниква въпросът дали всичко, което виждате, е истинско или не, основите на реалността вече са подкопани, предупреждават експертите.