GPT-4 се сблъсква с първи критики за липса на прозрачност
Дългоочакваното пускане на пазара на GPT-4, за което се говори отдавна, най-накрая е факт. В публикация в блога си във вторник OpenAI, компанията, която стои зад ChatGPT, представи най-новия си забележителен модел на изкуствен интелект.
Както беше предвидено, резултатите са впечатляващи - мултимодалният модел, който за разлика от своя предшественик може да работи както с текстови данни, така и с изображения, и може да покаже "подобна на човешката производителност" при редица задачи.
Представянето му на много от тестовете в различни дисциплини също е забележително, пише Fast Company. "За някои обаче не впечатляващите резултати са най-важният елемент от доклада, а липсата на прозрачност", добавя изданието.
Въпреки че във вторник OpenAI публикува придружаващ платформата документ от 98 страници, компанията е сравнително потайна по въпроса за самата технология.
OpenAI пуска GPT-4 – ново поколение на технологията, стояща зад ChatGPT Компанията твърди, че моделът е
"Като се има предвид както конкурентната среда, така и последиците за безопасността на широкомащабни модели като GPT-4, този доклад не съдържа никакви допълнителни подробности за архитектурата (включително размера на модела), хардуера, изграждането на наборите от данни, метода на обучение или други подобни", се казва в документа, цитиран от изданието.
Това обяснение не допада на много от членовете на академичните общности и на хората, занимаващи се с изкуствен интелект. Позоваването на безопасността като фактор е "измъкване от отговорност", твърди Катрин Флик, изследовател в областта на компютърните технологии и социалната отговорност в университета "Де Монфорт" във Великобритания: "Това е изцяло конкурентна среда - ако наистина бяха "отворен" AI (игра на думи с името на компанията), щяха да искат да бъдат възможно най-прозрачни."
Fast Company цитира и Ирина Райку, директор на Програмата за интернет етика в Центъра за приложна етика "Маркула" към Университета в Санта Клара, според която проблемът е, че е "жизненоважно колегите изследователи да имат достъп до набора от данни за обучение на чатбота".
"Само знаейки какво има в набора от данни, изследователите могат да посочат какво липсва", акцентира тя.
Седем проблема, които генеративният AI ще задълбочи От плагиатство до невъзможност потребителите да преценят кога изкуственият интелект греши
Но този ход на OpenAI може и да е с цел правна защита. Така поне мисли Андрес Гуадамуз, изследовател в областта на правото на интелектуалната собственост в Университета в Съсекс. По думите му това може да е реакция на продължаващата драма около конкурентната организация Stability AI, срещу която беше заведено дело от Getty Images за предполагаемо използване на платената база данни с изображения на фондовите борси за обучение на AI модел за генериране на изображения.
"Това ще се превърне в стандарт занапред", казва той.
6 факта за най-интересната личност в технологиите - ира Мурати от OpenAI 35-годишната Мира Мурати e главен технологичен директор на OpenAI и ветеран от Tesla
Решението да не се разкрива нищо за това как се обучава моделът GPT-4, нито за неговия размер или начина на изграждането му, е "безопасност чрез неяснота", казва още Гуадамуз. "Откритостта ви прави уязвими."
Но откритостта е важна, особено когато говорим за трансформираща технология, посочват от Fast Company. Предшествениците на GPT-4 - ChatGPT и GPT-3, вече са внедрени в редица различни приложения. В рамките на часове след появата си GPT-4 вече се използва в хуманитарни приложения и като AI чатбот за обслужване на клиенти, управляван от софтуерната компания Intercom.
Именно вероятното повсеместно разпространение на технологията GPT-4 прави по-важно от всякога широката общественост да е в състояние да следи за слабостите, присъщи на всеки модел за машинно обучение, смятат критиците на платформата.
Освен за OpenAI изследователят от университета "Де Монфорт" Катрин Флик е загрижена и за това, че ожесточаващата се надпревара в разработката на по-нови и по-мощни AI модели е подобна на надпреварата във въоръжаването и не благоприятства за внимателното разработване на продукти, отчитащо общественото въздействие, което може да имат те.
"Пространството е конкурентно и компаниите искат да продължат да пускат на пазара неизпитани прототипи, за да изпреварят останалите, обещавайки бъдещи поправки в ключови технически аспекти, които не са от основно значение, като, например, прозрачността", казва тя.
Освен това съществува въпросът как OpenAI рекламира собственото си творение и какво индиректно внушава компанията чрез личната си оценка.
"За мен поразителното в тази нова версия беше как компанията изтъква на преден план това представяне по време на изпити", казва Ник Сийвър, директор на програмата "Наука, технологии и общество" в университета "Тъфтс".
"Все едно предполагат, че нещото, което прави адвокатите адвокати, а хората хора, е способността им да преминават тези тестове. Това не е добре", коментира той пред Fast Company.