Етичните плюсове и минуси на AI модела на Meta Llama 3
Според експерти езиковият модел с отворен код може да ускори иновациите, но и да улесни създаването на дийпфейк съдържание
Мета има чисто нов Llama, с който да се похвали. В четвъртък гигантът в областта на социалните мрежи обяви Llama 3 – следващата версия на мащабния езиков модел (LLM) с отворен код, на който възлага надежди да превърне асистента Meta AI във водеща технология с изкуствен интелект.
Като оставим настрана темата дали този LLM с отворен код променя позиционирането на Meta в рамките на по-широката надпревара в областта на изкуствения интелект, напредъкът на Llama 3 повдига някои сериозни въпроси относно безопасността на демократизирането на AI на толкова ранен етап от развитието на технологията.
Експертите твърдят, че има както плюсове, така и минуси. Иновациите могат да бъдат ускорени, но също така могат да доведат до създаването на дийпфейк съдържание и по-обезпокоителни злоупотреби. Това е една трънлива, мъглява област. Ето някои от факторите, които трябва да бъдат взети предвид при отворения код.
Какви са предимствата на LLM с отворен код?
LLM с отворен код насърчава прозрачността и може да повиши общественото доверие в технологията, твърдят експерти пред Fast Company. Когато компаниите за изкуствен интелект използват затворен модел, възникват въпроси за източниците и пристрастията. OpenAI изпита това на гърба си, когато представи AI инструмента за генериране на видеоклипове Sora, а техническият директор Мира Мурати тромаво избягваше въпроси как е обучен моделът.
Освен това отвореният код позволява на учените и общността да изследват нови възможности. В най-добрия случай той може да увеличи производителността и да разработи решения, които да повишат стойността на отговорите ѝ за потребителите. Meta не е единствената компания, която използва отворен код за своя модел – Gemma на Google също е част от тази екосистема.
„С LLM с отворен код организациите ще разполагат с повече възможности за разработване и внедряване на решения, задвижвани от изкуствен интелект“, казва Раджив Гарг, професор в Goizueta Business School към университета Emory. „Llama 3 е солиден модел, който ще намали значително бариерата за навлизане за повечето организации – особено за тези, които искат да настроят тези модели с вътрешните си данни“, допълва той.
Какви са потенциалните недостатъци на LLM с отворен код?
Интернет е пълен със слаби актьори, които са склонни да използват новите технологии за незаконни цели и да предизвикват хаос.
„Моделите с отворен код са податливи на злонамерени атаки или пробиви, което потенциално застрашава данните на потребителите и тяхната неприкосновеност“, казва Дмитрий Шапиро, основател и главен изпълнителен директор на MindStudio. „Те могат да бъдат използвани за вредни цели, като например разпространение на дезинформация или пропаганда“, добавя той.
Поддръжката на моделите с отворен код и контролът на качеството също могат да представляват проблем. Ако Meta не упражнява строг надзор върху LLM, той може да дава противоречиви отговори, които да разочароват потребителите и да изострят съществуващи обществени проблеми.
Най-лошият сценарий? Той е точно толкова лош, колкото си мислите.
„Непредвидени последици могат да възникнат, когато моделите с отворен код се използват за злонамерени цели, като например генериране на дийпфейк или пропаганда“, казва Шапиро. „Освен това съществува риск от безконтролно разпространение, когато моделите с отворен код се прилагат, без етичните или социалните последици да бъдат взети предвид“, добавя той.
Увеличава ли употребата на технологии с отворен код необходимостта от регулиране на AI?
Експертите са разделени по този въпрос. Шапиро твърди, че LLM с отворен код улесняват прозрачността, което опростява регулационния процес. Според Гарг обаче без регулация вратите са отворени за всякакъв вид употреба, затова са необходими насоки за създаване на отговорни AI решения.
Така или иначе, разработчиците на изкуствен интелект до голяма степен подкрепят въвеждането на правила за AI от страна на правителството. Миналата година главният изпълнителен директор на OpenAI Сам Алтман свидетелства пред подкомисия на Сената, призовавайки правителството да регулира AI индустрията, включително и неговата компания. През следващия месец Алтман и някои от най-големите имена в сферата на изкуствения интелект – включително главните научни и технологични директори на Microsoft, подписаха изявление, в което предупреждават, че технологията може да представлява екзистенциален риск.
Пред какви потенциални правни проблеми биха били изправени Meta и други компании, които пускат модели с отворен код?
Никой не знае истинския отговор на този въпрос, но съществуват множество рискове, включително защита на личните данни, клевета и накърняване на репутацията. Ако LLM се използва неправилно или се повреди, Мета или други компании могат да бъдат подведени под отговорност, особено ако не са спазили нормативните изисквания.
Но засега всичко това е теоретично, а многото подвижни части на една AI система увеличават объркването.
„Юридическата отговорност е трудна тема, когато става въпрос за основни модели, тъй като има много взаимосвързани компоненти – от данните за обучение, настройката на модела и приложенията, изградени върху него, като често са замесени различни страни“, казва Бен Джеймс, основател и главен изпълнителен директор на Atlas Design. „Отговорността на един основен модел е трудна за определяне, ако след това някой изгражда върху него, а после някой друг надгражда допълнително“, обяснява той.