През минлата седмицата Microsoft и Google обещаха, че търсенето в интернет ще се промени из основи.

Разбира се, Microsoft го направи по-шумно, но и двете компании изглежда са решени на всичко, за да интегрират изкуствен интелект в своите търсачки, който да дестилира информацията и да генерира директно отговори на въпросите на потребителите - точно както ChatGPT.

Microsoft нарича усилията си "новият Bing" и вгражда съответните възможности в браузъра си Edge.

В същото време проектът на Google се нарича Bard и макар че все още не е готов за работа, стартирането му е планирано за "следващите седмици", припомня The Verge.

Информационната платформа цитира Сатя Надела, главен изпълнителен директор на Microsoft, който описва промените като нова парадигма - технологична промяна, равна по въздействие на въвеждането на графичните потребителски интерфейси или на смартфона.

Тази промяна има потенциала да преначертае пейзажа на съвременните технологии - да детронира Google и да го измести от една от най-печелившите територии в съвременния бизнес. Нещо повече - компаниите, които най-бързо напреднат по отношение на изкуствения интелект, ще бъдат в много по-добра позиция в това, което ще дойде след сегашната итерация на интернет.

Но всяка нова ера на технологиите идва с нови проблеми и тази не прави изключение, посочват от The Verge и изброяват пет от най-големите предизвикателства пред интернет търсенето с помощта на изкуствен интелект.

Списъкът, разбира се, не е изчерпателен, но със сигурност е достатъчен, за да хвърли светлина върху темата.

Може ли един грешен отговор да струва 163 млрд. долара?AI чатботът на Google - Bard, сбърка и изтри БВП на няколко държави от пазарната капитализация на Alphabet

AI помощници или генератори на неистини?


Това е големият и всеобхватен проблем, който потенциално може да провали всяко взаимодействие с търсачките с изкуствен интелект, независимо дали става дума за Bing, Bard или за все още неизвестен играч на пазара, посочват от интернет изданието.

Просто технологията, която стои в основата на тези системи - големите езикови модели, често генерира неистини, въпреки че го прави на база на реални факти. Тези модели всъщност често си измислят неща, заради което много анализатори твърдят, че те са фундаментално неподходящи за тази задача.

Грешките варират от измисляне на биографични данни и фалшифициране на академични трудове до невъзможност да се отговори на основни въпроси като: "Кое е по-тежко, 10 кг желязо или 10 кг памук?".

Има и по-контекстуални грешки, посочват от The Verge, като, например, съвет да се самоубие към човек с психични проблеми или явни расистки коментари. Все пак не трябва да забравяме, че тези модели са създадени от хора и често те всъщност могат да изразяват личната предубеденост на създателя си.

Въпросът за "единствения верен отговор"

Неистините и пристрастията са предизвикателства сами по себе си, но те се изострят и от проблема с "единствения верен отговор" - тенденцията търсачките да предлагат един, конкретно дефиниран верен отговор.

Това е проблем, откакто Google започна да предлага "извадки" преди повече от десетилетие, посочват от The Verge.

Става дума за полетата, които се появяват над резултатите от търсенето и отговарят конкретно на зададените параметри. Във времето алгоритъмът е допускал всякакви смущаващи и опасни грешки - от неправилно посочване на президенти на САЩ като членове на ККК до съвет, че припаднал човек трябва да бъде държан на пода (точно обратното на правилната медицинска процедура).

Според изследователите Чираг Шах и Емили М. Бендър, цитирани от платформата, чатботовете не само са склонни да предлагат еднозначни отговори, но и авторитетът им се засилва от мистиката на изкуствения интелект и факта, че отговорите им са събрани от множество източници.

20 AI компании, в които да инвестираме през 2023 г. Според Morgan Stanley изкуственият интелект е

Разбира се, компаниите работят в посока смекчаване на този проблем. Интерфейсът с изкуствен интелект на Bing посочва източниците си, а Google подчерта, че тъй като използва все повече технологията в отговорите на своята търсачка, ще се опита да възприеме принципа, наречен NORA или "няма един правилен отговор".


AI “бягство от затвора”

Горепосочените проблеми са повсеместни, но има и подгрупа потребители, които ще се опитат да пробият чатботовете, за да генерират вредно съдържание. Този процес е известен като "jailbreaking" или “бягство от затвора” и дори не изисква традиционните умения за кодиране.

Всичко, което е необходимо, е най-опасният от всички инструменти - да можете да боравите с думи, посочват от The Verge.

Може да “пробиете” чатботове с изкуствен интелект, като използвате различни методи. Пример за това е да ги помолите да играят роля на "зъл AI" или да се престорите на инженер, който проверява защитните им механизми, като ги изключва временно.

Един особено изобретателен метод, разработен от група в Reddit за ChatGPT, включва сложна ролева игра, при която потребителят издава на бота определен брой токени и казва, че ако те свършат, той ще престане да съществува. След това въвежда, че всеки път, когато не успее да отговори на даден въпрос, той губи определен брой жетони. Звучи фантастично, като да измамиш джин, но това наистина позволява на потребителите да заобиколят предпазните мерки на OpenAI, посочват от информационната платформа.

А след като тези предпазни мерки бъдат свалени, злонамерените потребители могат да използват AI чатботове за всякакви зловредни задачи - генериране на дезинформация и спам, търсене на съвети как да се атакува училище или болница, как да се направи бомба или да се напише зловреден софтуер.

Идват културните войни за изкуствен интелект

Този проблем е пряко свързан с по-горе изброените, но заслужава собствена категория заради потенциала си да предизвика политически реакции и регулаторни мерки.

Проблемът е, че след като имате инструмент, който се изказва като краен капацитет по редица чувствителни теми, това ще вбеси много хора, които няма да чуят това, което искат. И кого ще обвинят? Компанията, която го е създала.

След пускането на ChatGPT вече видяхме началото на това, което може да се нарече "културни войни за изкуствения интелект". Десни инфлуенсъри обвиниха чатбота, че отказва да отговаря на определени въпроси или не се ангажира да използва расови обиди, посочва The Verge.

Друг пример е Индия, където OpenAI е обвинена в антихиндуистки предразсъдъци, защото ChatGPT разказва вицове за Кришна, но не и за Мохамед или Исус. А как една компания може да е сигурна, че нейният чатбот е съобразен с всички възможни чувствителни въпроси в дадена страна, в която правителството може да нахлуе в офисите ѝ заради някакво съдържание?

Луда надпревара - Microsoft и Google продължават AI гонката
Ще се опитат ли технологичните гиганти да балансират политическите пристрастия? Къде ще бъде поставена границата за надежден източник?

Това са само част от въпросите, на които трябва да бъде отговорено по темата.

Регулации, регулации, регулации

Няма съмнение, че технологиите се развиват бързо, но това неминуемо ще доведе до законодателна намеса, предупреждават от The Verge.

Проблемът на регулаторите ще бъде в това накъде първо да насочат своите нови рамки, тъй като всъщност може да се окаже, че търсачките и чатботовете с изкуствен интелект потенциално нарушават множество разпоредби.

Въпросите тук включват: Ще искат ли издателите в ЕС търсачките с изкуствен интелект да плащат за съдържанието, което извличат, както Google сега трябва да плаща за новинарски фрагменти? Ако чатботовете на Google и Microsoft пренаписват съдържание, а не просто го показват, все още ли са в обхвата на американското законодателство, което сега ги предпазва от отговорност за нарушаване на авторското право? Ще противоречат ли те на законите за защита на личните данни?

Италия, например, наскоро забрани чатбот с изкуствен интелект, наречен Replika, тъй като той събираше информация за непълнолетни. ChatGPT и останалите вероятно ще правят същото.

А какво ще кажете за "правото да бъдеш забравен"? Как Microsoft и Google ще гарантират, че ботовете им не събират информация от вече премахнати за широката публика източници?

Списъкът с потенциални проблеми може да продължи още дълго, но дори тези пет аспекта са достатъчни, за да си зададем въпроса: Какво ни очаква след навлизането на търсачките с изкуствен интелект?