Потребителите на Spotify винаги се вълнуват да получат своя годишен Wrapped - персонализираната класация на предпочитанията на абонатите на стрийминг платформата. В същия дух много приложения създават свои собствени обобщения за годината по най-различни теми. Сред тях е Fable, популярната социална платформа за любители на книги и сериали. Тя предизвика фурор с новата си AI функция за обобщаване на прочетените книги през 2024 г., който обаче бързо се превърна в PR кошмар.

Писателят Дани Гроувс, например, получава обобщение, което със саркастичен тон му задава въпроса: „Някога бил ли сте в настроение да чуете гледната точка на хетеросексуален, бял мъж?“ След това AI обобщението го нарича меко казано „почитател на разнообразието“, разказва Wired.

Тиана Трамел, инфлуенсърка, която споделя своите предпочитания за книги онлайн, остава шокирана от съвета в края на нейния Wrapped: „Не забравяйте от време на време да четете и бели автори, става ли?“

Възмутена, Трамел споделя опита си в Threads и открива, че далеч не е единствената, която може да се оплаче.„Получих куп съобщения от хора, чиито обобщения коментират неуместно теми като физически увреждания и сексуална ориентация“, споделя тя пред Wired.

Изглежда, че вместо да предложи „хитри“ персонализирани съобщения, платформата е излязла извън рамките на добрия тон - и това, очевидно, не се харесва на потребителите.

Инцидентът бързо доведе до извинения от страна на Fable - компанията публикува официално изявление в Threads и Instagram, придружено с видео, в което изпълнителен директор поема вината.

„Дълбоко съжаляваме за обидите, които някои от нашите обобщения нанесоха тази седмица“, пише към видеопубликацията. „Ще се постараем да се справим по-добре.“

Кимбърли Марш Али, директор на общността на Fable, казва пред Wired, че компанията работи по редица промени за подобряване на AI обобщенията.

Сред тях са опция за отказ от функцията и по-ясно обозначение, че текстовете са генерирани от изкуствен интелект. „За момента премахнахме частта от модела, която 'закачливо' критикува читателя, и вместо това AI просто обобщава вкусовете за книги“, обяснява Али.

След публикацията на Wired обаче тя заявява, че Fable е взела окончателно решение незабавно да премахне AI-генерираните обобщения на прочетените книги за 2024 г., както и още две функции, които използват AI.

За някои потребители обаче тези корекции не са достатъчни.

Писателката на фентъзи и романтика А.Р. Кауфър е шокирана, когато вижда екранни снимки от обобщенията в социалните мрежи. „Fable трябва да обяви, че изцяло се отказва от AI. И трябва да направи изявление, което не само да адресира проблема, но и да съдържа извинение към всички засегнати“, казва Кауфър.

„Това 'извинение' в Threads звучи неискрено, като се споменава, че приложението е 'забавно,' сякаш това оправдава всички тези расистки, сексистки и дискриминационни цитати.“ В отговор на инцидента Кауфър решава да изтрие профила си във Fable.

Трамел прави същото. „Подходящият ход би бил да се деактивира функцията и да се проведат сериозни вътрешни тестове, включително нови мерки за сигурност, които да намалят риска от причиняване на вреда за потребителите“, коментира тя.

Гроувс е на същото мнение. „Ако персонализираните обобщения не са устойчиви, защото екипът е малък, предпочитам да ги няма, отколкото да се сблъсквам с AI резултати, които могат да обидят с провокативен език или обидни изрази“, казва той. „Това е моето мнение, ако Fable е в настроение да чуе гледната точка на гей, чернокож мъж.“

Инструментите за генериране на съдържание чрез AI вече имат богата история с проблеми, свързани с расови пристрастия.

През 2022 г. изследователи откриха, че генераторът на изображения DALL-E от OpenAI често изобразява цветнокожи хора като „затворници“ и само бели хора на челни позиции. Миналата есен Wired съобщи, че множество AI търсачки показват вече опровергани и расистки теории за генетичното превъзходство на белите.

Прекалените корекции също понякога създават проблеми за AI алгоритмите: миналата година Google Gemini е критикуван, след като многократно изобразява нацисти от Втората световна война като хора с различен цвят на кожата.

„Когато видях, че обобщенията са генерирани от AI, не бях изненадан“, казва Гроувс. „Тези алгоритми са създадени от програмисти, които живеят в общество с предразсъдъци, така че е логично машинното обучение да отразява същите тези пристрастия - съзнателно или несъзнателно.“