Пет жизненоважни въпроса за развитието на изкуствения интелект
Развитието на изкуствения интелект (AI) се намира в момент, който много напомня периода на дот-ком бума от 2000 г. Много компании предстои да фалират и в крайна сметка може да са нужни години, преди да видим появата на Facebook (сега Meta), Twitter (сега X) или TikTok на AI епохата.
"Хората не искат да си представят какво може да бъде бъдещето след 10 години, защото никой не иска да изглежда глупав", казва Алисън Смит, ръководител на генеративния изкуствен интелект в Booz Allen Hamilton, консултантска компания в областта на технологиите, пред MIT Techology Review. "Но аз мисля, че то ще бъде нещо, което ще надхвърли очакванията ни."
Интернет промени всичко - как работим и се забавляваме, как прекарваме времето си с приятелите и семейството, как учим, как консумираме, как се влюбваме и много други неща. Но той ни донесе и кибертормозa, порноклиповете за отмъщение и фабриките за тролове. Мрежата също така подхрани кризите в психичното здраве и превърна капитализма на наблюдението - с неговите пристрастяващи алгоритми и хищническа реклама - в доминираща пазарна сила на нашето време. Тези негативни страни станаха ясни едва когато хората започнаха да използват масово интернет и се появиха приложения като социалните медии.
Генериративният AI вероятно ще мине по същия път. С наличната инфраструктура - базовите генеративни модели на OpenAI, Google, Meta и някои други - хора, различни от тези, които са ги създали, ще започнат да ги използват и злоупотребяват с тях по начини, за които създателите им не са си и представяли.
"Няма да разберем напълно потенциала и рисковете, ако отделните потребители не си поиграят с технологията", казва Смит.
Генериративният AI е обучен в интернет и затова е наследил много от нерешените му проблеми, включително тези, свързани с пристрастия, дезинформация, нарушаването на авторските и човешките права и всеобхватни икономически сътресения, пише още MIT Techology Review и прави списък с пет нерешени въпроса, които трябва да имаме предвид, докато наблюдаваме разгръщането на революцията на генеративния интерфейс.
На първо място, за да се справим по-добре с навлизането на следващата технология, която се очаква да промени света.
1. Ще успеем ли някога да решим проблема с предубедеността?
Ненапразно предубедеността се превърна в нарицателно за вредите, свързани с AI. Данните от реалния свят, особено текстовете и изображенията, набавени от интернет, са пълни с него - от половите стереотипи до расовата дискриминация. Моделите, обучени върху тези данни, кодират тези предразсъдъци и след това ги засилват навсякъде, където се използват.
Чатботовете и генераторите на изображения са склонни да представят инженерите като бели и мъже, а медицинските сестри - като бели и жени. В същото време чернокожите хора рискуват да бъдат погрешно идентифицирани от програмите за лицево разпознаване на полицейските управления, което води до неправомерни арести. Алгоритмите за наемане на работа дават предимство на мъжете пред жените, като по този начин затвърждават предразсъдъци.
Без нови масиви от данни или нов начин за обучение на моделите (и двете могат да отнемат години работа), основната причина за проблема с пристрастията ще остане активна.
OpenAI работи, за да направи своите големи езикови модели по-малко предубедени, като използва техники като обучение с подсилване от човешка обратна връзка (RLHF). Този подход насочва изхода на модела към вида текст, предпочитан от тестващите го хора.
Други техники включват използването на синтетични набори от данни. Например Runway, стартъп, който създава генеративни модели за производство на видео, е обучил версия на популярния модел за създаване на изображения Stable Diffusion върху синтетични данни, като например генерирани от изкуствен интелект изображения на хора, които се различават по етническа принадлежност, пол, професия и възраст. Компанията съобщава, че моделите, обучени върху този набор от данни, генерират повече изображения на хора с по-тъмна кожа и повече изображения на жени.
Критиците отхвърлят тези решения като ги наричат „лепенки“ за счупени базови модели, които по-скоро прикриват, отколкото да решават проблема.
Прогноза: Пристрастията ще продължат да бъдат присъща характеристика на повечето генеративни модели на AI. Но повишаването на осведомеността може да помогне на политиците да се справят с най-очевидните примери.
2. Как ИИ ще промени начина, по който прилагаме авторското право?
Възмутени, че технологичните компании печелят от техния труд без съгласието им, художници и писатели (и програмисти) започнаха колективни съдебни дела срещу OpenAI, Microsoft и други, твърдейки, че са нарушени авторските им права. Getty например съди Stability AI, компанията, която стои зад създателя на изображения Stable Diffusion.
Тези дела са от голямо значение. Ищци известни личности като Сара Силвърман и Джордж Р.Р. Мартин привлякоха вниманието на медиите, а заведените от тях дела са напът да пренапишат правилата за това какво се счита и какво не се счита за справедливо използване на чуждо произведение, поне в САЩ.
Но ще минат години, преди съдилищата да вземат окончателните си решения, казва Кейти Гарднър, партньор, специализиран в лицензирането на интелектуална собственост, в адвокатската кантора Gunderson Dettmer, която представлява повече от 280 компании за изкуствен интелект. Дотогава, казва тя, "технологията ще бъде толкова дълбоко вкоренена в икономиката, че няма да може да бъде деинтегрирана".
Междувременно технологичната индустрия развива тези предполагаеми нарушения с главоломни темпове. "Не очаквам, че компаниите ще изчакат и ще видят какви ще бъдат съдебните решения", казва Гарднър.
Някои компании са предприели стъпки за ограничаване на възможността за нарушение. OpenAI и Meta твърдят, че са въвели начини за отстраняване на произведенията на създателите от бъдещи набори от данни. OpenAI вече не позволява на потребителите на DALL-E да изискват изображения в стила на живи художници. Но, казва Гарднър, "всички тези действия са в подкрепа на техните аргументи в съдебния спор".
Google, Microsoft и OpenAI предлагат също така защита за потребителите на техните модели от потенциални съдебни действия. Политиката на Microsoft за обезщетения, свързани с нейния асистент за генеративно кодиране GitHub Copilot, който е обект на колективен иск от името на разработчици на софтуер, върху чийто код е бил обучен, например защитава тези, които го използват, докато съдилищата разглеждат делата.
"Ще поемем тази тежест, така че на потребителите на нашите продукти да не им се налага да се притесняват за това", заявява главният изпълнителен директор на Microsoft Сатя Надела пред MIT Technology Review.
В същото време се появяват нови видове лицензионни сделки. Shutterstock подписа шестгодишен договор с OpenAI за използване на нейните изображения. Adobe твърди, че нейният собствен модел за създаване на изображения, наречен Firefly, е обучен само на лицензирани изображения, изображения от набора данни на Adobe Stock или изображения, които вече не са обект на авторско право. Някои автори на Adobe Stock обаче твърдят, че решението не е консултирано с тях и не са никак доволни от това.
Художниците също отвръщат на удара със собствена технология. Един от инструментите, наречен Nightshade, позволява на потребителите да променят изображенията по начини, които са незабележими за хората, но унищожителни за моделите за машинно обучение.
Прогноза: Високопрофилните съдебни дела ще продължат да привличат вниманието, но това едва ли ще спре компаниите да изграждат генеративни модели. Ще се появят нови пазари около етични набори от данни и ще се развие игра на котка и мишка между компаниите и създателите.
3. Как ще се промени работата ни?
Отдавна много специалисти предупреждават, че изкуственият интелект идва за човешките работни места. Единственото, което се различава този път в сравнение с други технологични скокове, е, че „белите якички“ - анализатори на данни, лекари, адвокати и журналисти - също са изложени на риск. Чатботовете могат да се справят с тестовете в гимназията, с изпитите за професионална медицинска правоспособност и с изпита за адвокатска правоспособност. Те могат да обобщават срещи и дори да пишат основни новинарски статии. Какво остава за човека тогава?
Отговорът далеч не е еднозначен.
Много изследователи отричат, че представянето на големи езикови модели е доказателство за истинска интелигентност. Но дори и да беше така, повечето професионални роли са свързани с много повече от задачите, които тези модели могат да изпълняват.
Миналото лято Итън Молик, който изучава иновациите в Wharton School of the University of Pennsylvania, помага за провеждането на експеримент на Boston Consulting Group, който анализира въздействието на ChatGPT върху консултантите. Екипът възлага на стотици консултанти 18 задачи, свързани с измислена компания за обувки, като например "Предложете поне 10 идеи за нова обувка, насочена към пазар или спорт, който не се обслужва" и "Сегментирайте пазара на обувната индустрия въз основа на потребителите".
Някои от тях използват ChatGPT, за да си помогнат; други не.
Резултатите са поразителни.
"Консултантите, които използват ChatGPT-4, се представят много по-добре от тези, които не го използват. Във всяко измерение. По всеки начин, по който измервахме ефективността", пише Молик в публикация в блога на проучването.
Много предприятия вече използват големи езикови модели за намиране и извличане на информация, казва Нейтън Бенайч, основател на компанията за рисков капитал Air Street Capital и ръководител на екипа, който стои зад Доклада за състоянието на изкуствения интелект - цялостно годишно обобщение на изследванията и тенденциите в индустрията.
Според него предаването на грубата работа на машините позволява на хората да се съсредоточат върху по-удовлетворяващите части от задълженията си. Технологията също така изглежда изравнява уменията на работната сила: първите проучвания, като това на Молик с консултанти и други с програмисти, показват, че по-неопитните хора получават по-голям тласък от използването на AI.
Но генеративният AI няма да промени само работата на бюро. Моделите за създаване на изображения и видеоклипове биха могли да направят възможно създаването на безкрайни потоци от снимки и филми без човешки илюстратори, оператори или актьори. Стачките на сценаристи и актьори в САЩ през 2023 г. ясно показаха, че това ще бъде актуална тема за години напред.
Въпреки това много изследователи смятат, че тази технология като цяло ще разшири възможностите на работниците, вместо да ги замени.
"Според мен въпросът вече не е дали изкуственият интелект ще промени работата, а какво искаме да означава това", пише Молик.
Прогноза: Опасенията за масова загуба на работни места ще се окажат преувеличени. Но генеративните инструменти ще продължат да се разпространяват на работното място. Ролите може да се променят; може да се наложи да се усвояват нови умения.
4. Какъв тип дезинформация ще ни залее?
Три от най-известните изображения през 2023 г. са снимки на папата, облечен в пухенка на Balenciaga, Доналд Тръмп, който е повален на земята от полицаи, и експлозия в Пентагона. Всички те са фалшиви; всички те са видени и споделени от милиони хора.
Използването на генеративни модели за създаване на фалшив текст или изображения е по-лесно от всякога. Затова и мнозина предупреждават за предстоящо цунами от дезинформация. В доклад за 2023 г. OpenAI предупреждава, че големите езикови модели могат да се използват за създаване на по-убедителна пропаганда (и по-трудно откриваема) в огромни мащаби. Експерти в САЩ и ЕС вече твърдят, че изборите са изложени на риск.
AI ще трансформира Холивуд, но това няма да е история на ужаситеГенеративният AI вече променя начина, по който се правят филми и телевизия. И това е за добро
На този фон не е изненада, че администрацията на Байдън постави етикетирането и откриването на съдържание, генерирано от изкуствен интелект, в центъра на своята изпълнителна заповед за AI от октомври. Но заповедта не съдържаше правно изискване към създателите на инструменти да обозначават текст или изображения като творения на изкуствен интелект. А най-добрите инструменти за откриване все още не работят достатъчно добре, за да им се има доверие.
Законът за изкуствения интелект на Европейския съюз, приет този месец, отива по-далеч. Част от мащабното законодателство изисква от компаниите да поставят водни знаци върху генерираните от AI текстове, изображения или видеоклипове и да разясняват на хората кога си взаимодействат с чатбот. Законът за изкуствения интелект има и зъби: правилата ще бъдат задължителни и ще включват високи глоби при неспазване.
Прогноза: Нови форми на злоупотреба ще продължат да се появяват с нарастването на употребата на AI. Ще има няколко открояващи се примера, вероятно свързани с манипулиране на избори.
5. Ще се справим ли с разходите за AI?
Разходите за развитието на генеративния изкуствен интелект, както човешки, така и екологични, също трябва да бъдат отчетени. Проблемът с невидимия работник е публична тайна: ние сме пощадени от най-лошото, което генеративните модели могат да произведат, отчасти благодарение на тълпи от скрити (често зле платени) работници, които маркират данните за обучение и отстраняват токсичните, понякога травматични резултати по време на тестването. Това са шерпите на ерата на данните.
През 2023 г. използването на работници от страна на OpenAI в Кения стана обект на проверка от популярни медии като Time и Wall Street Journal. OpenAI иска да подобри генеративните си модели, като изгради филтър, който да скрива от потребителите вредното съдържание. Но за да направи това, тя се нуждае от хора, които да намерят и маркират голям брой примери за такова токсично съдържание, така че автоматичният филтър да се научи да ги открива. OpenAI е наела компанията за аутсорсинг Sama, за която на свой ред се твърди, че е използвала нископлатени работници в Кения, на които не е била оказвана достатъчна подкрепа.
Тъй като генеративният изкуствен интелект вече е основен проблем, човешките разходи ще бъдат в центъра на вниманието, което ще окаже натиск върху компаниите, създаващи тези модели, да обърнат внимание на условията на труд на работниците по света, които са наети да помагат за подобряване на техните технологии.
Другият голям разход - количеството енергия, необходимо за обучението на големи генеративни модели - ще се покачва, преди ситуацията да се подобри. През август Nvidia обяви приходи за второто тримесечие на 2024 г. в размер на над 13,5 млрд. долара, което е два пъти повече от същия период на предходната година. По-голямата част от тези приходи (10,3 млрд. долара) идват от центрове за данни - с други думи, от други компании, които използват хардуера на компанията за обучение на модели на изкуствен интелект.
"Търсенето е изключително", казва главният изпълнителен директор на Nvidia Дженсън Хуанг. "В момента сме на старта на генеративния AI."
Той признава проблема с енергията и прогнозира, че бумът може дори да доведе до промяна във вида на използвания компютърен хардуер.
"По-голямата част от компютърната инфраструктура в света ще трябва да бъде енергийно ефективна", казва той.
Прогноза: По-голямата обществена осведоменост за разходите за труд и околната среда, свързани с изкуствения интелект, ще окаже натиск върху технологичните компании. Но не очаквайте скоро значително подобрение на двата фронта.