Може ли изкуственият интелект да бъде асистент в журналистиката?
Ново проучване на Columbia Journalism Review показва, че алгоритмите често се провалят в обобщаването на информация и систематичното търсене
&format=webp)
Изкуственият интелект със сигурност променя медийната индустрия, но доколко точно трансформира самата журналистика все още е оспорван въпрос. Голяма част от редакционните политики забраняват използването на AI за писане на материали, а самите журналисти рядко са склонни да търсят помощ от алгоритмите. Това обаче не означава, че AI няма с какво да помогне – дори само като „асистент в журналистическите изследвания“.
Именно тук идва и новият доклад на Columbia Journalism Review (CJR), който систематично тества инструменти за изкуствен интелект в конкретни журналистически сценарии. Резултатите показват, че моделите могат да бъдат изненадващо неинформирани изследователи и в много случаи не особено добри в обобщаването на информация.
CJR фокусира тестовете си върху ситуации в работното пространство, които често се срещат в медийните редакции. Например – обобщаване на протоколи и стенограми от заседания на местни власти, а не на статии или презентации. В експеримента участват моделите ChatGPT, Claude, Perplexity и Gemini, които са подложени на различни типове заявки за кратки и по-дълги резюмета.
Докладът показва, че най-добри резултати се постигат при кратки обобщения в размер на около 200 думи, докато при по-дългите версии се появяват неточности и липсващи факти. Любопитно е, че дори най-простият промпт от вида „Дай ми кратко резюме на този документ“ дава най-качествени резултати, но отново само когато става въпрос за кратки текстови формати.
Втората част на проучването проверява инструментите за отразяване на научни факти – като Consensus и Semantic Scholar – при симулиране на литературен обзор: търсене на релевантни материали, цитиране и извеждане на общи изводи. Резултатите са още по-проблематични. Инструментите често представят изцяло различни източници от тези, които човешкият екип е включил, а понякога се разминават и помежду си. При повторение на експеримента няколко дни по-късно резултатите отново се променят.
Това поставя под въпрос надеждността на изкуствения интелект при задачи, които изискват систематично търсене и последователност – изключително важни за науката и работата на журналистите в световен мащаб.
Какво можем да научим от този експеримент?
Проучването разкрива няколко важни извода. Промпт инженерингът е от голямо значение. Използването на по-ясни и прецизни заявки има шанс да подобри резултатите. Например да кажете на чатбота да ви състави „резюме от 200 думи“ ще бъде много по-ефективно от неясното „кратко резюме“. Приложенията, които могат да бъдат използвани, са ограничени. Когато журналистите използват външни AI платформи, те губят директния достъп до базовия модел и възможността да контролират настройките му. Така рискът от непоследователност се увеличава. Итерацията е ключът. Надеждни резултати не се получават от първия опит. Нужно е постоянно коригиране на промптове, избор на модели и проверка на финалните резултати.
Какво означава това за редакциите?
„AI грамотността“ се превръща в едно от най-важните умения за редакционната работа. Специалистите в областта на журналистиката трябва да знаят как да формулират ефективни заявки, да оценяват резултатите и да експериментират, докато намерят подхода, който работи за конкретния случай. CJR също така отбелязва, че подобни вътрешни тестове могат да се правят от самите редакции, без непременно да бъдат ангажирани инженери. Достатъчно е екипът да подходи методично: да създаде промпт, да оцени резултатите, след което да итерара процеса.