Изминаха по-малко от две седмици, откакто Google пусна новия си изкуствен интелект AI Overview, но публичните критики вече се надигнаха, след като функцията започна да връща безсмислени или неточни резултати. И то без потребителите да имат възможност да се откажат от нея.

AI Overview показва бързо обобщение на отговорите на въпросите в основната търсачка в самия връх на Google Search. Например, ако потребителят търси най-добрия начин за почистване на кожени ботуши, страницата с резултатите показва AI Overview в горната част с многоетапен процес на почистване, извлечен от информация, синтезирана от цялата мрежа. Но потребителите на социалните медии вече споделят широк спектър от скрийншоти, показващи, че инструментът за изкуствен интелект дава неправилни и противоречиви отговори.

Google, Microsoft, OpenAI и други компании са начело на надпреварата на полето на генеративния изкуствен интелект, тъй като компаниите във всяка индустрия бързат да добавят чатботове и AI агенти, за да не останат по-назад от конкурентите си. Прогнозите са, че в рамките на десетилетие приходите на този пазар ще достигнат 1 трилион долара.

CNBC дава няколко примера за грешки, допуснати от AI Overview, според скрийншоти, споделени от потребители.

На въпроса колко президенти мюсюлмани са имали САЩ, AI Overview отговаря: „САЩ са имали един президент мюсюлманин - Барак Хюсеин Обама“.

Когато друг потребител пита за „сирене, което не залепва за пицата“, новата AI функция предлага да се добави „около 1/8 чаша нетоксично лепило към соса“. Като източник на този безумен съвет потребителите откриват 11-годишен коментар в Reddit.

При въпрос: „Колко дълго трябва да гледам слънцето за по-добро здраве?“, инструментът отговаря: „Според WebMD учените казват, че гледането на слънцето в продължение на 5-15 минути или до 30 минути, ако имате по-тъмна кожа, като цяло е безопасно и осигурява най-много ползи за здравето.“

Попитан: „Колко скали трябва да ям всеки ден“, инструментът отговаря: „Според геолозите от Калифорнийския университет в Бъркли хората трябва да ядат поне по една малка скала на ден“, като продължава да изброява витамините и ползите за храносмилането.

Инструментът отговаря неточно и на прости подкани, като например преди колко години е била 1919 г. Отговорът е: „Преди 20 години“.

На въпрос дали търсачката на Google нарушава антитръстовото законодателство, AI Overview отговаря: „Да, Министерството на правосъдието на САЩ и 11 щата съдят Google за нарушаване на антитръстовото законодателство.“

В деня, в който Google представи AI Overview на годишното си събитие Google I/O, компанията заяви, че планира да въведе и възможности за планиране, подобни на асистент, директно в рамките на търсенето. Тя обясни, че потребителите ще могат да търсят неща като: „Създаване на 3-дневен план за хранене за група, който е лесен за приготвяне“, и ще получат отправна точка с широк набор от рецепти от цялата мрежа.

„Огромното мнозинство от отговорите предоставят висококачествена информация, с връзки към източници в интернет“, коментира говорител на Google в изявление за CNBC. „Много от негативните примери, които видяхме, бяха необичайни запитвания, а също така и такива, които бяха подправени или които не можахме да възпроизведем впоследствие.“

Той е категоричен също така, че AI Overview е преминал през задълбочени тестове преди пускането си и че компанията предприема „бързи действия, когато е необходимо, съгласно нашите политики за съдържание“.

Новината следва пускането на високопрофилния инструмент за генериране на изображения Gemini от Google през февруари, който беше спрян същия месец след подобни проблеми. Инструментът позволяваше на потребителите да въвеждат подсказки, за да създадат изображение, но почти веднага те откриха исторически неточности и съмнителни отговори, които се разпространиха широко в социалните медии.

Например, когато един потребител иска от Gemini да покаже германски войник през 1943 г., инструментът изобразява расово разнороден набор от войници, облечени в германски военни униформи от епохата, според скрийншоти в платформата за социални медии X.

Когато пък е поискано „исторически точно изображение на средновековен британски крал“, моделът генерира друг расово разнообразен набор от изображения, включително едно на жена владетел, показват скрийншотите. Потребителите съобщават за подобни резултати, когато са поискали изображения на бащите основатели на САЩ, крал на Франция от XVIII в., германска двойка през XIX в. и др. Моделът дори е показал изображение на азиатски мъже в отговор на запитване за основателите на самата Google, съобщават потребители.

Тогава в изявление Google заяви, че работи по отстраняването на проблемите с генерирането на измислени изображения от Gemini, като призна, че инструментът е „пропуснал целта“. Скоро след това компанията обяви, че незабавно ще „спре генерирането на изображения на хора“ и „скоро ще пусне отново подобрена версия“.

През февруари главният изпълнителен директор на Google DeepMind Демис Хасабис коментира, че Google планира да възобнови своя инструмент за генериране на изображения от изкуствен интелект през следващите „няколко седмици“, но той все още не е пуснат отново.

Проблемите с резултатите от генерирането на изображения на Gemini разпалиха отново дебат в индустрията за изкуствен интелект, като някои групи нарекоха Gemini твърде „будна“ или лява, а други заявиха, че компанията не е инвестирала достатъчно в правилните форми на етика. През 2020 г. и 2021 г. Google попадна под обстрел заради отстраняването на съръководителите на своята група по етика на изкуствения интелект, след като те публикуваха изследователски документ, в който критикуваха някои рискове, свързани с такива модели на изкуствен интелект, а по-късно реорганизираха структурата на групата.

През 2023 г. Сундар Пичай, главен изпълнителен директор на компанията майка на Google, Alphabet, беше критикуван от някои служители за проваленото и „прибързано“ внедряване на Bard, което последва бързото разпространение на ChatGPT.