Безумните отговори на Google AI не са големият проблем
Целият процес на генериране на отговори от изкуствен интелект на заявки за търсене има потенциал да подвежда, вместо да информира
Поставянето на лепило върху пица не е добра идея. Котките не са били на Луната. Повечето лекари не препоръчват камъните за ядене.
Нито една от тези теми не беше обект на дискусия до миналата седмица, когато Google започна да въвежда „Обобщения на изкуствения интелект“ в някои резултати от търсачката си.
Потребителите скоро откриха примери за тези машинно генерирани прегледи, които не просто са неточни, а шокиращи и абсурдни. Появиха се и по-тревожни случаи, в които функцията греши, като например, че е възприела тезата на крайнодесните, че Барак Обама е мюсюлманин.
Така последният от поредицата неуспешни опити на Google с изкуствения интелект вдъхнови потребителите да експериментират със странни запитвания и да споделят резултатите в X и други социални мрежи. Изводът е, че хората са отличници в разпространение на дезинформация – и без помощта на генеративен изкуствен интелект, пише Fast Company.
Google твърди, че работи за усъвършенстване на прегледите на изкуствения интелект и отстранява неточностите, когато научи за тях.
Възможно е обаче компанията да не е очаквала, че функцията ще направи толкова лошо първо впечатление. За разлика от обогатения с Copilot Bing на Microsoft, обобщенията имат много повече предпазни мерки, отколкото чатбот като ChatGPT или Gemini на Google.
Те са и с по-ограничен обхват от Perplexity, търсачка с изкуствен интелект, обявена за начало на „Там, където започва знанието“.
Обобщенията на Google са кратки, имат по-скоро анонимен тон и допълват търсенето в традиционната му форма, вместо да го заменят изцяло. Често те не се различават коренно от извадките, които отдавна се появяват в горната част на много страници с резултати на Google.
Целият процес на генериране на отговори от изкуствен интелект на заявки за търсене има потенциал да подвежда, вместо да информира. Поне в сегашното си състояние начинът, по който генеративният изкуствен интелект преразказва неща, без да разбира какво наистина казва, го прави по същество небрежен, което е в противоречие с мисията на Google да „организира световната информация и да я направи универсално полезна и достъпна“.
Да бъдеш почти прав, но не съвсем, не е достатъчно близо.
Освен това летвата на Google трябва да е много по-висока от избягване на явни грешки. Технологичният гигант се бори с широко разпространеното впечатление, че изостава от компании като OpenAI и Microsoft в създаването на продукти с изкуствен интелект. Това го поставя под натиск да внедри технологията в своите предложения. Компанията не е споделила подробности за процента на прегледите на AI или какво смята за разумна цифра.
При мащабите на Google Search обаче дори незначителен процент от отговорите, които не са точни, би повлиял на милиони хора.
При положение, че репутацията на едноименната търсачка е малко поизтъркана, Google рискува да я накърни още, като изглежда твърде склонна да приеме некачествени отговори като последица от внедряването на генеративен изкуствен интелект.
От друга страна, компанията може би е направила услуга на потребителите по такъв публичен начин.
Прекаленото доверяване на точността на материалите, генерирани от изкуствен интелект, е ужасна грешка; нуждаем се от всички напомняния за неговата неточност, които можем да получим.
Грешката с лепилото върху пица е удивително лесна за разбиране, без да се изисква диплома по компютърни науки. Разбира се, математическият алгоритъм може да не разбере шега, която и най-ограниченият потребител на Reddit би разбрал.
Изводът е прост – именно грешките, които не привличат внимание, могат да нанесат най-големи щети на Google и на всички, които разчитат на търсачката.