От надежди за по-висока творческа продуктивност до страхове за мрачно бъдеще: Какво ще стане, когато Sora попадне в ръцете ни?
Още преди да стане широкодостъпен новият модел за генериране на видеоклипове на OpenAI предизвиква както огромно вълнение, така и чувство на обреченост. Какви са аргументите на оптимистите и песимистите?
Новият модел за генериране на видеоклипове Sora на OpenAI има способността да създава зашеметяващи визуални ефекти, след като въведете текстова заявка, твърди компанията. По собствените ѝ съобщения тя изглежда е направила огромна крачка в света на изкуствения интелект, размивайки границите между реалност и симулация. Но при такава успеваемост при пресъздаването на образи тя предизвиква належащ въпрос, на който трябва да се отговори, преди да достигне до обществеността: По какъв начин Sora ще промени света?
Понастоящем инструментът е в ранен достъп и се тества от експерти по киберсигурност, преди да бъде пуснат публично. Подобно на ChatGPT и DALL-E, които първоначално разтревожиха хора, предприятия и индустрии, Sora предизвиква загриженост сред тези, които разбират нюансите на AI и опасностите, които могат да дойдат с него, пише Built In.
Въпреки че моделът има някои особени предимства, поради които може да бъде широко приветстван, други с право го смятат за инструмент, предвещаващ мрачно бъдеще.
Какви са опасенията?
Новите инструменти за изкуствен интелект винаги са трупали както критици, така и привърженици, а случаят със Sora не е по-различен. Представете си видеоклипове на политик, който произнася измислена реч по време на поляризиращи избори, или алтруистична обществена фигура, която одобрява антисоциален продукт, или пък знаменитост, която се появява в компрометиращ видеоклип. Как бихте определили кои кадри са истински и кои изфабрикувани от Sora?
Моделът за преобразуване на текст във видео разбира не само какво е поискал потребителят, но и как тези неща действително съществуват във физическия свят, което го прави по-страшен. Способността му да създава почти безупречни, реалистични видеоклипове допълнително разпали опасенията за дълбоки фалшификати. Злонамерени лица биха могли да използват тази технология, за да манипулират общественото мнение и да разпространяват дезинформация.
Професор от Принстънския университет установява, че видеоклиповете, създадени чрез Sora, показват някои странни грешки при изобразяването на сложни сцени с много движение. Той предполага, че засега такива дълбоко фалшиви видеоклипове ще могат да бъдат разпознати, но в дългосрочен план това може да повлияе негативно на обществото, ако не се адаптираме.
Все пак фактът, че симулацията на реалния свят от Sora е толкова безупречна и убедителна за широката публика, трябва да ни накара да се замислим за посоката на изкуствения интелект и това кой ще се възползва от него. Представянето на AI модела е описано от популярната хакерка Рейчъл Тобак, като "по-достоверен и по-малко карикатурен от предшествениците си, а това води след себе си безброй рискове за киберсигурността".
Shy Kids е филмов колектив, базиран в Торонто, който описва стила си като "пънк-рок Pixar". Групата и преди е експериментирала с генеративни видеотехнологии. Миналата година тя направи музикален клип за една от песните си, използвайки инструмент с отворен код, наречен Stable Warpfusion. Сега Shy Kids имаше възможност да използва Sora, създавайки филма "Air Head". Видеото можеше да изглежда изключително реалистично - ако не включваше мъж с балон вместо лице.
Какви са предимствата?
Представянето на Sora като изцяло злодейска технология не би било точно. Изключително важно е да се помни, че самата технология не е добра или лоша по своята същност, като тя носи със себе си много положителни страни. От първите наблюдения на модела се вижда, че Sora има потенциал да революционизира области като образованието, здравеопазването, електронната търговия, анимацията, музиката и развлеченията и др.
Помислете за историческите личности, оживели в интерактивни симулации, за обучението в образователните институции, което става по-интерактивно и целенасочено чрез лесни педагогически техники за преобразуване на текст във видео. Персонализирани медицински консултации, провеждани от аватари с изкуствен интелект, или потапящи преживявания с разкази, които разширяват границите на реалността. Звучи страхотно, нали? Реалността обаче може да се окаже някъде по средата.
Sora може да окаже огромно въздействие, като трансформира области като образованието, политиката, здравеопазването, развлеченията, създаването на кратки видеоклипове, електронната търговия, научните визуализации и създаването на филми. Някои от тези промени могат да бъдат за добро, други - за лошо. В крайна сметка хората в тези области ще трябва да се адаптират.
Въпреки че има предвид потенциала на Sora за злоупотреба, OpenAI е предпазлива и не бърза, преди да я предостави на широката общественост. Но остава въпросът дали това ще бъде достатъчно? Или, както винаги, ще се намерят начини хакерите да проникнат в модела и да го ползват според прищевките си? Тази възможност, разбира се, не може да бъде изключена.
Търсенето на някои странни неща и движения във видеоклиповете може да помогне за улавянето и справянето със злоупотребата от Sora. Освен това откритият и прозрачен диалог между разработчиците, създателите на регулации и обществеността е от решаващо значение за намаляване на потенциалните рискове, които се натрупват при всяка нова технология.
Например YouTube публикува политика, с която насърчава създателите да етикетират всички видеоклипове, генерирани от изкуствен интелект, за да се направи разграничение между реалността и симулацията. На този фон правителствата продължават да обмислят създаването на етични рамки за AI и предпазни мерки срещу злоупотреба с технологията.
Границата между реалност и илюзия се размива с всеки изминал ден. Тъй като Sora се подготвя за отворен достъп, технологичните ентусиасти, разработчиците, правителствата и други заинтересовани страни ще трябва да поемат колективно отговорността, за да може да се появи яснота, коментира Built In. Докато разработчиците и червените екипи могат да се погрижат за потенциалните рискове, които могат да възникнат при използването на технологията, правителството трябва да въведе строги мерки, за да контролира как тя се използва. Възможностите, с които се очаква да пристигне новият инструмент на OpenAI, са изключително обещаващи и същевременно обезпокоителни.