Нобеловият лауреат Джефри Хинтън има послание за системите с изкуствен интелект, за чието създаване е помогнал: Обърнете повече внимание на безопасността, защото в противен случай те могат да застрашат човечеството.

„Мисля, че се намираме в своеобразна точка на раздвоение в историята, като през следващите няколко години трябва да разберем дали има начин да се справим с тази заплаха“, казва Хинтън в интервю за nobeplrize.org, в което се смесват гордост от работата на живота му и предупреждения за нарастващата опасност, която тя представлява.

Миналата година 76-годишният Хинтън подава оставка от Google, отчасти за да може да говори повече за възможността системите за изкуствен интелект да се измъкнат от човешкия контрол и да влияят на изборите или да захранват опасни роботи. Заедно с други опитни изследователи той призова компании като OpenAI, Meta и Google да отделят повече ресурси за безопасността на усъвършенстваните системи, за чието бързо разработване се конкурират помежду си.

Нобеловата награда на Хинтън предоставя нова платформа за неговите предупреждения, като същевременно отбелязва решаващата му роля в развитието на технологиите, които ги подхранват, пише WSJ. Хинтън твърди, че усъвършенстваните системи за изкуствен интелект са способни да разбират своите резултати - противоречиво мнение в изследователските среди.

„Надявам се, че това ще ме направи по-надежден, когато казвам, че тези неща наистина разбират какво казват“, казва Хинтън за nobelprize.org.

Възгледите на Хинтън го изправят срещу фракции от AI общността, които смятат, че разсъжденията върху сценариите за деня на Страшния съд ненужно забавят технологичния напредък или отклоняват вниманието от по-непосредствени вреди.

Мислене като хората

Хинтън споделя Нобеловата награда за физика с Джон Хопфийлд от Принстънския университет за работата им от 80-те години на миналия век върху невронни мрежи, които обработват информация по начини, вдъхновени от човешкия мозък. Тази работа е в основата на много от използваните днес технологии за изкуствен интелект - от човекоподобните разговори на ChatGPT до способността на Google Photos да разпознава кой е на всяка ваша снимка.

През 2012 г. Хинтън работи с двама свои дипломанти от Университета в Торонто - Алекс Крижевски и Иля Суцкевер, върху невронна мрежа, наречена AlexNet, програмирана да разпознава изображения в снимки. До този момент компютърните алгоритми често не са били в състояние да разберат, че снимка на куче наистина е куче, а не котка или кола.

Победата на AlexNet в състезание за технология за разпознаване на изображения през 2012 г. е ключов момент в развитието на съвременния бум на изкуствения интелект, тъй като доказва силата на невронните мрежи в сравнение с други подходи.

През същата година Хинтън основава компания с Крижевски и Суцкевер, която се оказва краткотрайна. Google я придобива през 2013 г. на търг срещу конкуренти, сред които Baidu и Microsoft, като плаща 44 млн. долара основно за наемането на тримата мъже, според книгата „Гениални създатели“. Хинтън започва да разделя времето си между Университета в Торонто и Google, където продължава изследванията си върху невронните мрежи.

Хинтън е широко почитан като ментор на сегашното поколение водещи изследователи на изкуствения интелект, подобно на ученика си Суцкевер, който е съосновател на OpenAI, преди да напусне тази пролет, за да основе собствена компания, наречена Safe Superintelligence.

През 2018 г. Хинтън получава наградата „Тюринг“ - приз за компютърни науки - за работата си върху невронните мрежи заедно с Йошуа Бенгио от университета в Монреал и друг изследовател, Ян Лекун. Тримата често са определяни като съвременните „кръстници на AI“.

Предупреждения за катастрофа

Към 2023 г. Хинтън започва да се тревожи за последиците от изграждането на по-мощен изкуствен интелект. Той говори за възможността системите да излязат от контрола на създателите си и да причинят катастрофални вреди на човечеството. По този начин той се присъединява към гласовито движение на хора, загрижени за екзистенциалните рискове на технологията.

„Намираме се в ситуация, която повечето хора дори не могат да си представят, а именно, че тези цифрови интелекти ще бъдат много по-умни от нас и ако искат да свършат нещо, ще искат да поемат контрола“, казва Хинтън в интервю от миналата година.

Хинтън напуска Google през пролетта на 2023 г., заявявайки, че иска да може свободно да обсъжда опасностите от изкуствения интелект, без да се притеснява от последствия за компанията. Google е действала „много отговорно“, пише той в публикация в X.

През следващите месеци Хинтън прекарва голяма част от времето си в разговори с политици и технологични ръководители, включително Илон Мъск, за рисковете от изкуствения интелект.

Миналата година Хинтън подписва документ, в който се казва, че компаниите, занимаващи се с AI, трябва да отделят поне една трета от ресурсите си за научноизследователска и развойна дейност, за да гарантират безопасността и етичното използване на своите системи.

Засилената активност на Хинтън го поставя в опозиция на други уважавани изследователи, които смятат, че предупрежденията му са фантастични, защото AI далеч не е в състояние да причини сериозни вреди.

„Пълната липса на разбиране на физическия свят и липсата на способности за планиране ги поставят далеч под нивото на интелигентност на котките, да не говорим за човешкото ниво“, пише Лекун в лют отговор на Хинтън в X миналата година.

В последното си интервщ за сайта на Nobel Prize обаче Хинтън настоява: „Едно от нещата, които правителствата могат да направят, е да принудят големите компании да изразходват много повече от ресурсите си за изследвания в областта на безопасността." По думите му така свръхамбициозни проекти като OpenAI няма да могат да оставят изследванията в областта на безопасността на заден план.