Защо реклама с изкуствен интелект разгневи Скарлет Йохансон
Скарлет Йохансон предприема съдебни действия срещу приложение с изкуствен интелект, използвало името и гласа ѝ в реклама без нейно разрешение, съобщава Variety.
22-секундната реклама е публикувана в X (Twitter) на 28 октомври от приложението за генериране на изображения с изкуствен интелект Lisa AI: 90s Yearbook & Avatar.
Рекламата на приложението включва изображения на актрисата и глас, подобен на нейния, генериран от изкуствен интелект. Дребен шрифт под рекламата посочва, че съдържанието, генерирано от изкуствен интелект, "няма нищо общо с това лице".
От екипа на Скарлет Йохансон потвърдиха пред Variety, че тя не е говорител на приложението, а адвокатът ѝ заяви, че са предприети правни действия.
Според CNBC, рекламата вече е свалена, а от двете засегнати страни не са отговорили на запитването за коментар.
Въпреки че много известни личности вече са били обект на т.нар. дийпфейк измами, те могат да създадат проблеми и на обикновените потребители, допълва CNBC.
В случаите на дийпфейк алгоритмите с изкуствен интелект се обучават да идентифицират модели в големи масиви от данни, след което използват тези умения за разпознаване на модели върху нов набор от данни или за получаване на резултати, подобни на оригиналния набор от данни.
Ето един опростен пример: Модел с изкуствен интелект може да получи аудиоклипове на говорещ човек и да се научи да разпознава неговите речеви модели, тоналност и други уникални аспекти на гласа му. След това моделът може да създаде синтетична версия на гласа.
Проблемът е, че технологията може да бъде използвана по вреден начин, обяснява Джамин Едис, доцент в Нюйоркския университет с над 25-годишен опит в технологичната и медийната индустрия.
"Дълбоките фалшификати са просто ново средство за обезличаване и измама, и като такова могат да бъдат използвани по злонамерени начини, независимо дали става дума за известна личност", казва той пред CNBC. "Примери за това могат да бъдат вашият образ - или този на вашите близки, който се използва за порнография или за изнудване."
Това, което е още по-обезпокоително, е, че е все по-трудно да се направи разлика между истинското и фалшивото, тъй като технологията за дълбоки фалшификации бързо се развива, обяснява Едис.
Има няколко неща, които можете да направите, ако се чудите дали нещо е дийпфейк.
От една страна, запитайте се дали изображенията, които виждате, отговарят на действителността, съветва доцентът. Ако видите реклама, в която известна личност промотира нещо по недостатъчно конкретен начин, е добре да проверите другите ѝ акаунти в социалните мрежи.
Големите технологични компании, включително Meta, Google и Microsoft, също разработват инструменти, които да помагат на хората да откриват дийпфейк измамите.
Същевременно, президентът на САЩ Джо Байдън наскоро обяви първата изпълнителна заповед за изкуствения интелект, която ще изисква поставянето на водни знаци за ясно обозначаване на съдържанието, генерирано от изкуствен интелект, и други мерки за безопасност.
Технологията обаче исторически остава една крачка пред регулациите, допълва Едис.
"С времето социалните норми и правните разпоредби обикновено коригират най-лошите инстинкти на човечеството. Дотогава ще продължим да виждаме как технологията за дълбоки фалшификати се превръща в оръжие с негативен ефект.", коментира експертът.