Защо хората, които обучават AI, съветват останалите да „спазват дистанция“?
Пряко работещите с изкуствен интелект разказват какво всъщност се крие зад кулисите на технологията, която промени света – и защо доверието към моделите често се разминава с реалността
&format=webp)
„В дома ми изкуственият интелект е абсолютно забранен.“
Това казва Криста Павловски – дългогодишен AI разработчик в платформата Amazon Mechanical Turk, където модерира и оценява текстове, изображения и видеа, генерирани от алгоритми.
Павловски е част от невидима работна сила, която обучава изкуствения интелект да звучи повече като човек и да изглежда по-надежден. И въпреки кариерата ѝ – или пък именно заради това – нейният съвет към семейството ѝ е да стоят далеч от инструментите за генеративен AI.
Когато точно онези, които обучават изкуствения интелект да изглежда надежден, му вярват най-малко, това изглежда като знак за сериозен системен проблем, твърдят експерти. Причината е, че темпото, с което технологията се развива, изпреварва безопасността.
Павловски добре помни момента, който променя отношението ѝ към етичната страна на изкуствения интелект. Като човек, който работи с AI в платформа, чрез която различни компании възлагат задачи като категоризиране на данни, оценка на алгоритмично генерирани резултати или проверка на съдържание, тя ежедневно модерира текстове, изображения и видеа, генерирани от изкуствен интелект.
Преди около две години, докато работи от дома си, тя получава задача да маркира дали определени постове в X съдържат расистки език. Един от тези постове гласи: „Listen to that mooncricket sing“. Първоначално тя почти кликва „не“, преди да провери значението на думата „mooncricket“, която се оказва обиден расов термин срещу тъмнокожи американци.
„Седях и се чудех колко пъти съм подминавала подобни неща, без да осъзная грешката“, разказва тя пред The Guardian. А след това – колко други работещи в сферата са допуснали същата грешка или дори по-лоша.
След години работа „зад кулисите“ на системи за изкуствен интелект Павловски решава да не използва генеративни AI инструменти и съветва семейството си да следва същия подход. „В дома ми е абсолютно забранено да се използва изкуствен интелект“, казва тя.
Дъщеря ѝ, която е тийнейджър, няма достъп до чатботове. На познати Павловски препоръчва да попитат AI за нещо, което отлично разбират – за да видят сами колко често допуска грешки.
Когато разглежда новите си задачи на работа, тя винаги си задава въпроса: „Може ли това по някакъв начин да навреди на човек?“ Често отговорът на този въпрос е „да“.
Позицията на Amazon е, че работещите сами избират задачите, които изпълняват, и предварително виждат инструкциите, времевите рамки и възнаграждението.
Павловски не е единичен случай. Десетки от т.нар. AI raters – хора, които проследяват дали отговорите на алгоритмите са точни и безопасни – казват пред The Guardian, че след като са видели как „машините работят“ отвътре, са започнали да съветват близките си да използват генеративен изкуствен интелект по-предпазливо или изобщо да не го използват.
Една AI оценителка, която работи в Google и проверява качеството на AI Overviews в търсачката, споделя, че избягва да използва генеративни модели. Най-големият ѝ проблем са генерираните чрез изкуствен интелект отговори на въпроси, свързани със здравето.
„Колеги без медицинско образование оценяват отговори по медицински въпроси. Включително и самата аз“, казва тя.
Дъщеря ѝ, която е на 10 години, няма достъп до изкуствен интелект. „Първо трябва да развие критично мислене, иначе няма как да различи добрия отговор от лошия или просто – неправилния.“
Коментарът на Google по темата е, че оценките са само един от многото сигнали, които компанията използва, а системите ѝ имат „силни механизми за качество“.
Невидимата работна сила, която стои зад изкуствения интелект
AI оценителите са част от глобална мрежа, състояща се от десетки хиляди хора, които правят чатботовете по-лесни за разбиране и по-„човешки“. Но когато тези хора губят доверието си в технологиите, които обучават, експертите виждат това като предупреждение.
„Това показва, че съществуват стимули за скорост на работа, а не за качество. Обратната връзка на оценителите често бива игнорирана“, коментира Алекс Махадеван от MediaWise. „Ако те виждат грешки, значи и крайният потребител ще ги види. Това е сериозен проблем, когато все повече хора използват изкуствен интелект, за да се запознават с новини и информация.“
Много работещи в сферата твърдят, че самите компании са част от проблема. Например Брук Хансен, която от години се занимава с AI, казва, че не недоверява на технологията сама по себе си, а на компаниите, които стоят зад нея. Основният ѝ аргумент са минималното обучение, неясните инструкции и кратките срокове.
„Очакват от нас да подобрим моделите, но без достатъчно информация или време. Как тогава резултатът да бъде точен или етичен?“ казва Хансен. „Пропастта между очакваното и реално предоставеното показва, че скоростта и печалбата са по-важни от качеството.“
Един от фундаменталните проблеми на генеративния изкуствен интелект е способността му да отговаря изключително уверено – дори когато няма идея за какво говори. Според NewsGuard, през 2024 г. водещите AI модели не са отговаряли на 31% от по-рискованите въпроси. През 2025 г. този процент вече е 0%. За сметка на това вероятността да повторят невярна информация се е удвоила – от 18% на 35%.
Друг оценител от Google разказва, че често предупреждава хората: „Не вярвам на нито един факт, който AI ми посочва, без да направя самостоятелна проверка.“
Друг оценител, който работи по продукти на Google от 2024 г., казва, че е загубил доверие още след шестия месец. Той задава трудни въпроси, свързани с исторически теми, за да прецени къде моделът допуска грешки. Когато пита за историята на палестинския народ, не получава отговор. Но когато пита за историята на Израел – получава изключително подробен.
„Докладвахме проблема, но никой не реагира“, казва той.
След като вижда качеството на данните, които постъпват в обучението, той стига до заключението, че лошите данни водят до също толкова лоши резултати.
Днес той избягва работата с генеративен изкуствен интелект и редовно съветва близките си да не купуват устройства с вграден AI и да не споделят личната си информация с чатботове.
AI изглежда по-скоро като крехка система, отколкото като футуристична
За много от хората, които работят в тези среди, изкуственият интелект отдавна вече не изглежда като „магия“. По-скоро той е система, сглобена от бързо написан код, с много компромиси и огромно количество човешки труд.
„След като видите как са сглобени системите – със съкратени срокове, компромиси и съмнителни данни – AI вече не изглежда футуристичен, а крехък“, казва Адьо Диника от Distributed AI Research Institute.
Хансен и Павловски вече правят публични презентации за етичните и екологичните последици от изкуствения интелект. По време на конференция на бордовете на училищата в Мичиган реакциите са различни – някои са благодарни за информацията, а други ги обвиняват, че са „прекалено песимистични“.
Павловски сравнява индустрията за изкуствен интелект с текстилния сектор: „Докато хората нямаха идея как се произвеждат евтините дрехи, не задаваха въпроси и просто купуваха. Когато обаче осъзнаха отношението към работещите в сектора, нещата се промениха.“
„Откъде идват данните? Нарушава ли моделът авторските права? Плащат ли справедливо на хората, които вършат работата?“, пита тя.
Според нея обществото тепърва започва да търси отговори на тези въпроси – и ако настоява да ги получи, промяната е напълно възможна.




)



&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)