Microsoft, OpenAI и Google се включиха в пакт за борба с AI фалшификати
Група от 20 водещи технологични компании обяви съвместен ангажимент за борба с дезинформацията, създадена от изкуствен интелект, по време на изборите.
Индустрията се насочва конкретно към дълбоките фалшификати, които могат да използват измамни аудио, видео и изображения, за да имитират ключови участници в демократичните избори или да предоставят невярна информация за гласуването.
Microsoft, Meta, Google, Amazon, IBM, Adobe и дизайнерът на чипове Arm са част от подписалите споразумението.
OpenAI, Anthropic и Stability AI също се присъединиха към групата, заедно с компании за социални медии като Snap, TikTok и X, съобщава CNBC.
Технологичните платформи се подготвят за ключова година на избори по света, които засягат над четири милиарда души в повече от 40 държави.
Възходът на съдържанието, генерирано от изкуствен интелект, доведе до сериозни опасения за дезинформация, свързана с изборите, като броят на създадените дълбоки фалшификати се увеличава с 900% на годишна база, по данни на Clarity, компания за компютърно обучение.
Дезинформацията по време на избори е сериозен проблем още от президентската кампания в САЩ през 2016 г., когато руските участници откриха евтини и лесни начини да разпространяват невярно съдържание в социалните медии.
Днес законодателите са още по-загрижени от бързото развитие на изкуствения интелект.
"Има причина за сериозна загриженост как AI може да бъде използван за заблуждаване на гласоподавателите", заяви в интервю Джош Бекер, сенатор от Демократическата партия в Калифорния.
"Окуражаващо е да видим, че някои компании сядат на масата на преговорите, но засега не виждам достатъчно конкретика, така че вероятно ще се нуждаем от законодателство, което да определя ясни стандарти", допълни той.
Междувременно технологиите за откриване и създаване на водни знаци, използвани за идентифициране на дълбоки фалшификати, не се развиват достатъчно бързо, за да са в крак с времето. Засега компаниите просто се договарят за нещо, което се равнява на набор от технически стандарти и механизми за откриване.
Дори ако платформите, които стоят зад изображения и видеоклипове, генерирани от изкуствен интелект, се съгласят да включат стандарти като невидими водни знаци и определени метаданни, има начини да се заобиколят тези защитни мерки. Снимките на екрана понякога дори могат да заблудят детектора, допълва CNBC.
Освен това невидимите сигнали, които някои компании включват в изображенията, генерирани от изкуствен интелект, все още не са достигнали до много генератори на аудио и видео.
Новината за споразумението идва ден, след като създателят на ChatGPT OpenAI обяви Sora - своя нов модел за видео, генерирано от изкуствен интелект.
Sora работи подобно на инструмента за генериране на изображения с изкуствен интелект на OpenAI, DALL-E. Потребителят въвежда желаната сцена и Sora връща видеоклип с висока разделителна способност.
Sora може също така да генерира видеоклипове, вдъхновени от неподвижни изображения и да разширява съществуващи видеоклипове или да попълва липсващи кадри.
Компаниите, участващи в споразумението, поемат осем ангажимента на високо равнище, включително да оценяват рисковете, свързани с моделите, да се стремят да откриват и да се справят с разпространението на такова съдържание на своите платформи и да осигуряват прозрачност на тези процеси за обществеността.
Както при повечето доброволни ангажименти в технологичната индустрия и извън нея, в съобщението се уточнява, че ангажиментите се прилагат само "когато са от значение за услугите, които всяка компания предоставя".
"Демокрацията се основава на сигурни и безопасни избори", заяви Кент Уокър, президент по глобалните въпроси на Google.
Споразумението отразява усилията на индустрията да се справи с "генерираната от изкуствен интелект предизборна дезинформация, която подкопава доверието", допълни той.
Кристина Монтгомъри, главен директор по въпросите на неприкосновеността на личния живот в IBM, заяви, че в тази ключова година на избори са необходими "конкретни, съвместни мерки за защита на обществата от засилените рискове от генерирано от AI заблуждаващо съдържание".