OpenAI започва обучението на следващия си модел, но съображенията за безопасност продължават
„Нашата задача е да създадем AGI; не бих казала, че тя е да изградим свръхинтелигентност“, казва високопоставен ръководител на OpenAI
OpenAI съобщи, че е започнала да обучава софтуера си за изкуствен интелект от следващо поколение, въпреки че стартъпът се отказа от по-ранните си твърдения, че иска да изгради "свръхинтелигентни" системи, които да са по-умни от хората.
Базираната в Сан Франциско компания заяви във вторник, цитирана от Financial Times, че е започнала да произвежда нова система за изкуствен интелект, "която да ни изведе на следващото ниво на възможности", и че нейното разработване ще бъде наблюдавано от нова комисия за безопасност.
Тя ще се ръководи от Алтман и директорите на борда Брет Тейлър, Адам Д'Анджело и Никол Селигман и ще докладва на останалите трима членове на борда.
Но докато стартъпът се развива в разработването на AI, високопоставен ръководител на OpenAI сякаш отстъпва от предишните коментари на нейния главен изпълнителен директор Сам Алтман, че се стреми да изгради "свръхинтелигентност", много по-напреднала от хората.
Анна Маканджу, вицепрезидент по глобалните въпроси на OpenAI, казва пред FT, че нейната "мисия" е да изгради изкуствен общ интелект, способен да изпълнява "когнитивни задачи, каквито днес може да направи обикновения човек". "Нашата задача е да създадем AGI; не бих казала, че тя е да изградим свръхинтелигентност", отбелязва Маканджу.
"Свръхинтелигентността е технология, която ще бъде чувствително по-развита от човешките същества".
През ноември Алтман заяви пред FT, че прекарва половината от времето си в проучване на това "как да изгради следващото ниво на изкуствения интелект".
На този фон OpenAI се опитва да увери политиците, че дава приоритет на отговорното разработване на изкуствения интелект, след като няколко висши изследователи в областта на безопасността напуснаха този месец поради опасенията им за това.
По-рано този месец компанията разпусна така наречения си екип за свръхинтелигентност, който имаше задача да се фокусира върху сигурността на развитите AI системи, след като Иля Суцкевер, ръководител на екипа и съосновател на OpenAI, напусна. Оставката му дойде месеци, след като през ноември той проведе шоков преврат срещу Алтман, който се оказа неуспешен.
Закриването на екипа доведе до напускането на още няколко служители на компанията, включително Ян Лейке, друг старши изследовател на AI безопасността.
Маканджу подчертава, че се работи върху "дългосрочните възможности, дори и да са теоретични".
"AGI все още не съществува", добавя тя, заявявайки, че такава технология няма да бъде пусната, докато не стане напълно безопасна.
Обучението на AI опира на огромен обем данни, които му се предоставят. След като усвои информацията и подобри ефективността си, моделът се валидира и тества, преди да бъде внедрен в продукти или приложения.
Този дълъг и високотехнологичен процес означава, че новият модел на OpenAI може да се превърне в осезаем продукт в по-далечно бъдеще от очакваното.