OpenAI пуска нов инструмент, който може да определи дали дадено изображение е създадено с помощта на генератора на текст в изображение DALL-E 3 на компанията. Представители на OpenAI заявиха, цитирани от The Wall Street Journal, че инструментът е много точен в откриването на картините от DALL-E 3, но малки промени в изображенията могат да го объркат. Това отразява как компаниите за изкуствен интелект наваксват в способността си да проследяват собствените си технологии.

Напливът от фалшиви изображения и други медии, създадени с помощта на генеративен изкуствен интелект, създаде объркване относно това кое е и кое не е истинско и подхрани дискусията за начина, по който съдържанието на технологията влияе на предизборните кампании през 2024 г.

Политиците са загрижени, че избирателите все по-често се сблъскват с изображения, създадени от AI, а широката достъпност на инструменти като DALL-E 3 прави възможно генерирането на такова съдържание още по-бързо. Други стартъпи и технологични компании, занимаващи се с изкуствен интелект, също създават инструменти в помощ.

"Загрижеността за изборите е абсолютен двигател на тази работа", казва пред WSJ Дейвид Робинсън, който наблюдава политиката на OpenAI. "Това е контекстът номер едно, който ни тревожи и за който чуваме от създателите на политики."

Във вторник компанията също така заяви, че ще се присъедини към индустриална група, съоснована от Microsoft и Adobe, която се опитва да създаде удостоверения за онлайн изображения. Освен това OpenAI и Microsoft стартират фонд за "обществена устойчивост" на стойност 2 млн. долара в подкрепа на образованието по изкуствен интелект.

Компанията заяви, че новият ѝ инструмент е с близо 98% точност при откриването на съдържание, създадено от DALL-E 3, при повечето обстоятелства - ако изображението не е променено. Когато тези картини са скрийншотирани или изрязани, класификаторът е малко по-неуспешен, но все пак често може да направи точна идентификация.

Резултатите на инструмента намаляват допълнително при определени условия, например когато се променя оттенъкът на тези изображения, казва пред WSJ Сандхини Агарвал, изследовател от OpenAI.

От месеци компанията тества вътрешно своя инструмент за класификация. Той не разчита на водни знаци - подписи, които много компании умишлено включват в изображенията с изкуствен интелект, но често могат да бъдат премахнати.

Макар че инструментът разграничава дали съдържанието е направено от DALL-E 3, компанията е установила, че той може да бъде объркан, когато бъде помолен да оцени изображения с изкуствен интелект, създадени от конкурентни продукти.

В 0,5 % от случаите инструментът неправилно маркира изображения, генерирани от други изкуствени интелекти, като създадени от DALL-E 3, заяви компанията.

Определянето на това дали дадена картина е генерирана от изкуствен интелект може да бъде по-лесно, отколкото извършването на подобен скрининг за текст, създаден AI, твърдят изследователи от OpenAI и други организации.

През януари миналата година - два месеца след старта на ChatGPT, който предизвика огромно вълнение - OpenAI пусна инструмент, предназначен за откриване на писмени произведения, създадени от AI, който според нея не е успял да разпознае текст, написан от бот, в почти три четвърти от случаите. Представители на компанията твърдят, че все още работят по подобряването на този инструмент.