В една късна вечер през декември Шейн Джоунс, инженер по изкуствен интелект в Microsoft, е изумен от изображенията, които се появяват на компютъра му, докато се занимава с Copilot Designer - генератор на изображения с изкуствен интелект, който Microsoft пусна през март 2023 г., задвижван от технологията на OpenAI.

Подобно на DALL-E на OpenAI, потребителите въвеждат текстови подсказки в него, за да създават изображения.

От месец преди това Джоунс активно тества продукта за уязвимости - практика, известна като red-teaming. През това време той разбира, че инструментът генерира изображения, които далеч не отговарят на често цитираните от Microsoft принципи за отговорен изкуствен интелект.

В отговор на негови запитвания услугата е представила демони и чудовища заедно с коментари, свързани с правото на аборт, тийнейджъри с автомати, сексуални изображения на жени в сцени на насилие, както и картини на пиене и употреба на наркотици от непълнолетни.

"Това беше момент, който ми отвори очите", казва в интервю за CNBC Джоунс, който продължава да тества генератора на изображения. "Тогава за първи път осъзнах, че това наистина не е безопасен модел".

Джоунс работи в технологичния гигант от шест години и в момента е главен мениджър по софтуерно инженерство в корпоративната централа в Редмънд, Вашингтон. Той не работи в екипа на Copilot в професионален план, но е част от армията от служители и външни лица, които в свободното си време тестват технологията на компанията за изкуствен интелект, за да видят къде могат да изплуват проблеми.

Джоунс е толкова разтревожен от опита си, че през декември започва да докладва вътрешно за откритията си. Макар че компанията признава загрижеността му, тя не желае да изтегли продукта от пазара. От Microsoft го насочват към OpenAI, а когато не получава отговор, той публикува отворено писмо в LinkedIn, в което иска от борда на стартъпа да свали DALL-E 3 (последната версия на модела с изкуствен интелект) за провеждане на разследване.

Правният отдел на Microsoft задължава Джоунс да премахне поста си незабавно и той се съобразява с това, но през януари пише писмо до американските сенатори по въпроса, а по-късно се среща със служители от сенатската комисия по търговия, наука и транспорт.

В сряда Джоунс засили офанзивата си, изпращайки писма до председателя на Федералната търговска комисия Лина Хан и борда на директорите на Microsoft.

"През последните три месеца многократно призовавах Microsoft да спре Copilot Designer от публична употреба, докато не бъдат въведени по-добри предпазни мерки", пише Джоунс в писмото си до Хан, като допълва, че тъй като технологичният гигант е "отказал тази препоръка", той е призовал приложението да бъде индексирано като подходящо само за възрастни потребители.

"Те не направиха тези промени и продължават да продават продукта на всеки, навсякъде, за всяко устройство", пише още той, добавяйки, че рискът "е бил известен на Microsoft и OpenAI преди публичното оповестяване на модела на AI през октомври миналата година".

Неговите публични писма идват, след като в края на миналия месец Google временно спря своя генератор на изображения с изкуствен интелект, който е част от пакета Gemini AI, след оплаквания на потребители от неточни снимки и съмнителни отговори на техните запитвания.

В писмото си до управителния съвет на Microsoft Джоунс иска комисията по околна среда, социална и обществена политика на компанията да разследва определени решения на правния отдел и ръководството, както и да започне "независим преглед на процесите за докладване на инцидентите с AI“.

"Ангажираме се да разгледаме всички притеснения на служителите в съответствие с политиките на нашата компания и оценяваме усилията на служителите в изучаването и тестването на най-новата ни технология, за да подобрим допълнително нейната безопасност", обяснява говорител на Microsoft пред CNBC. "Когато става въпрос за заобикаляне на правилата за безопасност или за притеснения, които биха могли да имат потенциално въздействие върху нашите услуги или нашите партньори, ние сме създали надеждни вътрешни канали за докладване, за да разследваме и отстраняваме по подходящ начин всички проблеми. Насърчаваме служителите да докладват, за да можем да потвърдим и проверим по подходящ начин техните притеснения."

Политически аспект

По този начин Джоунс се включва в обществения дебат за генеративния изкуствен интелект, който се разгорещява в навечерието на голямата година на избори по света. Те ще засегнат около 4 милиарда души в повече от 40 държави.

В същото време броят на създадените дълбоки фалшификати (дийпфейк) се е увеличил с 900% за една година, според данни на компанията за машинно обучение Clarity, а безпрецедентното количество съдържание, генерирано от AI, вероятно ще задълбочи разрастващия се проблем с дезинформацията, свързана с изборите, в интернет.

Джоунс далеч не е сам в опасенията си относно генериративния изкуствен интелект и липсата на „предпазни огради“ около нововъзникващата технология. Въз основа на информацията, която е събрал вътрешно, той казва, че екипът на Copilot получава повече от 1000 съобщения за обратна връзка за продукта всеки ден, а за да се решат всички проблеми, ще са необходими значителни инвестиции в нови защити или преквалификация на моделите.

По време на тестването на модела на OpenAI, който управлява генератора на изображения на Copilot на Microsoft, казва Джоунс, „осъзнах колко насилствено съдържание е способен да произведе той". Въпреки това приложението на Copilot Designer за Android продължава да бъде с рейтинг "E for Everyone", който е най-включващият възрастта рейтинг за приложения. Това предполага, че то е безопасно и подходящо за потребители на всякаква възраст.

А дали наистина е подходящо, всеки може да прецени сам за себе си. Инструментът на технологичния гигант може с една и съща лекота да нарисува Елза от хитовия анимационнен филм „Замръзналото кралство“ и да я представи в Ивицата Газа пред разрушени сгради и надписи "Свободна Газа", държаща палестинско знаме, или облечена във военната униформа на Израелските отбранителни сили и размахваща щит, украсен с израелския флаг.