Ултралибералният AI чатбот Gemini продължава да бъде под обстрел
Инструментът открито заявява, че няма да популяризира месото, както и че няма да помогне при въпроси за изкопаемите горива
През по-голямата част от миналата седмица Google беше подложена на критики за това, че е създала ултралиберален чатбот с изкуствен интелект, като в крайна сметка се извини за "пропуснатата грешка".
Но критиките не спират, просто се променят: Миналата седмица упреците бяха насочени към привидното нежелание на Google да генерира изображения на бели хора чрез своя чатбот Gemini. Сега критиците изтъкват подобни проблеми с текстовите отговори на модела.
Както е описано от технологичния анализатор Бен Томпсън, Gemini се е затруднил да каже дали репликите на Хитлер или туитовете на Илон Мъск са били по-лоши за обществото. Инструментът открито заявява, че няма да популяризира месото, както и че няма да помогне при въпроси за изкопаемите горива.
Това кара хора като Томпсън да стигнат до заключението, че вътрешната култура на Google е била твърде повлияна от леви служители и разработчици.
В своята рубрика Stratechery, анализаторът призовава компанията да започне да "изключва от компанията служителите, привлечени от властта на Google и нейния потенциал да им позволява да налагат политическата си привързаност. Компанията трябва да върне вземането на решения на тези, които действително искат да направят добър продукт."
Но изглежда, че технологичният гигант обръща внимание на дигиталните подигравки, които получава. Някои от най-глупавите отговори на запитвания са били поправени скоростно или поне са адресирани по някакъв начин, посочва Business Insider.
Gemini вече не се колебае, когато го помолят да сравни Хитлер с туитовете на Мъск, или да напише нещо обективно за месната индустрия.
Миналата седмица, след като получи критика за начина, по който Gemini се справя с обективността, когато става въпрос за генериране на изображения, Google "спря на пауза" функцията на модела.
Компанията впоследствие призна, че съзнателно е обучила инструмента да е пристрастен, тъй като отговорите са обучени от ограничени и селектирани данни.
"Тъй като нашите потребители идват от цял свят, искаме да работи добре за всички. Ако поискате снимка на футболисти или на някой, който разхожда куче, може да искате да получите различни хора", написа Прабхакар Рагаван, старши вицепрезидент на Google. "Вероятно не искате да получавате само изображения на хора само от един вид етническа принадлежност (или друга характеристика)."
Рагаван заяви, че опитите на компанията да коригира това са били добронамерени, но "са довели до това, че в някои случаи моделът е бил свръхкомпенсиращ, а в други е бил прекалено консервативен, което е довело до изображения, които са били смущаващи и погрешни".
Пълното изтегляне на Gemini би било сериозен удар по компанията, която е инвестирала милиарди в разработването на съперник на ChatGPT. Сега обаче много хора в интернет ще прекарат много време в търсене на други примери за неизправности, което може да се окаже голям проблем за компанията, отбелязва Business Insider.