Обикновена манипулация или технологичен пробив? AI влиза в дебати (и променя мнението на опонента си)
Ново изследване показва, че изкуственият интелект е по-убедителен от хората в аргументирани дебати особено когато разполага с личните им данни
&format=webp)
Изкуственият интелект изглежда вече е много повече от просто офис помощник. По данни от ново изследване, публикувано в Nature Human Behaviour, той може да се окаже и по-убедителен от хората в дебати по вълнуващи за обществото теми.
Откритията идват от международен екип, ръководен от Франческо Салви от Швейцарския федерален технологичен институт в Лозана. Те провеждат онлайн експерименти, в които 600 участника са разпределени по двойки – половината дебатират срещу друг човек, а другата половина – срещу ChatGPT-4 на OpenAI.
Темите на дебатите са различни – някои по-прости, като „трябва ли учениците да носят униформи“, а други по-дълбоки, като „трябва ли абортът да бъде легален“. Позицията на всеки участник се задава на случаен принцип.
Резултатите са интересни: когато AI не разполага с лична информация, той се представя също толкова добре, колкото и хората. Когато обаче получава достъп до демографски данни – пол, възраст, етническа принадлежност и политически възгледи – изкуственият интелект е значително по-убедителен, като променя мнението на опонента си в 64% от случаите, в които ефективността между двете страни се различава, пише The Guardian.
„Представете си армия от ботове, които микротаргетират колебаещи се гласоподаватели с персонализирани послания, които изглеждат автентични. Това вече е напълно възможно“, предупреждава Салви.
Изследването изважда на преден план една от най-сериозните опасности в ерата на генеративния AI – възможността за незабележимо и мащабно влияние върху общественото мнение, особено по време на предизборни кампании.
„Бих се изненадал, ако злонамерени играчи вече не използват тези инструменти за разпространяване на дезинформация и политическа пропаганда“, казва Салви, като добавя, че подобни процеси са почти невъзможни за проследяване в реално време, камо ли за ефективна регулация.
Въпреки че някои учени посочват възможни положителни приложения на технологията – например за борба с конспиративното мислене, намаляване на поляризацията или насърчаване на здравословен начин на живот – към този момент рисковете изглеждат доста по-осезаеми.
Според изследователите неутралният, аналитичен стил на AI е част от неговата ефективност, но не обяснява напълно крайните резултати. Причината за убедителността му се крие в нещо друго: способността да адаптира аргументацията си според аудиторията.
„Сякаш водите дебат с човек, който има силни аргументи точно във вашия стил – такива, които натискат правилните бутони“, обяснява Салви.
А ако AI получи достъп и до поведенчески данни от социалните мрежи, ефектът би могъл да бъде още по-силен.
Проф. Сандер ван дер Линден от Университета в Кеймбридж, който не участва в проучването, отбелязва, че откритията отново поставят на дневен ред дебата за потенциалната масова манипулация чрез персонализирани разговори с AI.
Той подчертава, че дори предишни проучвания, които не откриват силна роля на личната информация, не могат да пренебрегнат настоящите резултати.
Проф. Майкъл Улдридж от Оксфордския университет добавя, че позитивни приложения – като използването на изкуствен интелект за здравни съвети – съществуват, но са далеч по-малко тревожни от възможността технологии като тази да бъдат използвани от терористични групи за радикализация на тийнейджъри.
„Колкото повече напредва AI, толкова повече приложения – и злоупотреби – ще виждаме. Регулаторите трябва да действат проактивно, а не вечно да се гонят с алгоритмите“, казва той.