Потребителите все по-често разчитат на големи езикови модели (LLM), когато търсят информация за продукти в интернет. Затова не е изненада, че компаниите са все по-загрижени как тези технологии възприемат техните брандове.

Джак Смит, главен директор по решенията в компанията за дигитален маркетинг Jellyfish, разследва причините определени подкани на потребителите да карат LLM да споменават марки. Големите езикови модели организират думи и изрази – включително имена на брандове, в огромно векторно пространство в зависимост от значението им и контекста, в който често се използват. Така например един LLM може да свърже търговското наименование на лосион за тяло с думата „нежен“.

Но какво се случва, ако моделът не успее да асоциира определен термин с продукта? Или по-лошо – ако асоциира името на продукта с отрицателен термин? Пред Fast Company Смит споделя, че е разговарял с финансови компании, които полагат усилия да се уверят, че LLM не свързват имената им с политически, социални или екологични проблеми в година на избори.

Въпреки че организациите не могат да променят онова, което езиковите модели вече „знаят“ за брандовете им, те могат да допълват информационното пространство с ново съдържание с надеждата то да достигне до AI инструментите и да им повлияе. В момента това се случва основно при обучението на даден модел посредством огромна компресирана версия на съдържанието в интернет. Възможни са обаче промени. „Все повече LLM са изначално свързани с мрежата – което е най-сигурният начин да бъдат колкото се може по-полезни, така че ще „поглъщат“ все повече актуално съдържание“, казва Смит.

„Това си е почти като хирургична интервенция и тук става наистина забавно, защото трябва да разберем какъв вид съдържание ще има най-голямо въздействие върху модела“, допълва той. Според него все повече LLM ще бъдат обучавани чрез клипове в мрежата. „Работната ни хипотеза е, че видеосъдържанието – тъй като е по-богато като формат или привлича повече погледи, ще бъде от голямо значение“, казва експертът. Той съветва компаниите да прегледат цялото съдържание, което са публикували онлайн през годините, и да изтрият всяка информация, която би могла да изпрати грешно послание.

Ново проучване на езиковия модел на Apple разкрива стратегия за превръщането на Siri в страхотен продукт

Apple иска вашият iPhone да разполага с компактен езиков модел, който да „вижда“ съдържанието от приложенията и уебсайтовете, които отваряте или работят във фонов режим. AI изследователите на компанията предлагат метод за създаване на изцяло текстово представяне на това съдържание (и мястото му на екрана), така че езиковият модел да може да го разбира и използва в разговори с потребителя. „Доколкото ни е известно, това е първият случай, в който някой използва LLM с цел кодиране на контекст от екран“, пишат инженерите в хранилището със свободен достъп ArXiv.

Например ако потребителят търси близки магазини или ресторанти в приложението Maps, той би могъл да попита какво е работното време на последния в списъка, без да го назовава по име. Или пък ако преглежда раздел „Контакти“ в уебсайта на даден бизнес, би могъл да инструктира Siri да се обади на посочения телефон.

Един от най-готините сюжети при генеративния изкуствен интелект е, че езиковите модели имат достъп до непрестанно разрастваща се база данни, от която могат да се учат. Първият LLM можеше единствено да обработва текст от интернет, но новите мултимодални модели разбират и аудио и видео. Може би iPhone на бъдещето ще „вижда“ съдържанието на приложенията в телефон ви, но Apple има страхотната възможност да захрани Siri с повече видове данни, които смартфонът така или иначе вече събира – звуци от околната среда, събирани от микрофона, заобикалящата ни среда, видяна през камерата, и движенията, засечени от сензорите.

Защо OpenAI премахна необходимостта от регистрация за достъп до ChatGPT?

OpenAI вече не изисква от потребителите да създават акаунти, за да използват ChatGPT. Те могат просто да кликнат върху приложението или уебсайта и да въведат подкана. От компанията казват, че по този начин целят да направят „AI достъпен за всеки, който проявява любопитство към неговите възможности“.

Този ход е логичен, ако се замислите защо OpenAI изобщо отвори своя чатбот за широката общественост. Много от изследователите се присъединиха към компанията, защото искаха да представят изкуствения интелект на реални потребители, а не само да пишат научни статии за него. Идеята е, че те могат да научат много за приложенията на чатбота и възможностите за злоупотреба с него от хората, които го използват в ежедневието.

OpenAI иска и да включи диалозите с ChatGPT в обучението на своите AI модели. Генерираното от потребителите съдържание може да се окаже също толкова ценно за компаниите в сферата на изкуствения интелект, колкото и за социалните мрежи. Чрез премахването на акаунтите OpenAI вдига бариерата пред събирането на данни за обучение (все пак от компанията посочват, че потребителите могат да откажат техните разговори да бъдат използвани за тази цел).

Сега, когато всеки може да използва ChatGPT, рискът от злоупотреби с него може да нарасне. Затова от OpenAI заявяват, че въвеждат допълнителни защити на съдържанието за потребители без акаунти и ще блокират по-широк кръг от подкани.

Този ход на компанията може да е и опит да накара новите потребители да изпробват ChatGPT, вместо някоя от все по-ефективните му алтернативи като Gemini на Google. По данни на SimilarWeb през февруари посещенията на чатбота на OpenAI през мобилни устройства и компютри са намалели с 2,7% спрямо предходния месец и с 11% спрямо пика на популярността му през май 2023 г.