Еуфорията от новите технологии, базирани на изкуствен интелект, като чатбота ChatGPT на OpenAI, вече отстъпва място на страха от рисковете, които те могат да създадат.

Изследователят Джефри Хинтън, известен като "Кръстникът на изкуствения интелект", заяви преди дни, че напуска поста си в Google, като се позова на опасения за потенциални заплахи от развитието на изкуствения интелект.

Миналия месец главният изпълнителен директор на Google Сундар Пичай говори за проблема с "черната кутия" на AI, при който дори разработчиците не винаги разбират как всъщност работи технологията, припомня CNBC.

Сред другите опасения са, че системите на AI, оставени без контрол, могат да разпространяват дезинформация, да позволяват на компаниите да трупат лични данни на потребителите без тяхно знание, да проявяват дискриминационни предразсъдъци или да прехвърлят безброй човешки работни места на машини.

Опасенията са основателни, категоричен е Суреш Венкатасубраманян, професор по компютърни науки в университета Браун, който изследва технологичните системи.

"Това не са потенциални рискове, защото тези вреди вече са документирани през годините", казва пред CNBC професорът, който отскоро е и съветник в Службата за научна и технологична политика на Белия дом и съавтор на "План за закон за правата на изкуствения интелект" на администрацията на американския президент Джо Байдън.

„Кръстникът“ на AI д-р Хинтън предупреждава за опасностите от технологията75-годишният д-р Джефри Хинтън обяви, че напуска Google, като каза, че сега съжалява за работата си

В "Проекта за закон за правата на изкуствения интелект" Венкатасубраманян излага своите предложения за "етични бариери", които биха могли безопасно да управляват и регулират индустрията на изкуствения интелект.

"Виждам тези предпазни бариери не само като защита срещу рискове, но и като начини за изграждане на едно много ясно и безопасно бъдеще, което всъщност всички искаме", казва професорът.

Ето кои са етичните бариери, които той и други експерти предлагат:

  • Строги и независими тестове на продукти, използващи AI
  • Защита от дискриминация в алгоритмите
  • Защита на личните данни
  • Потребителите да бъдат уведомявани, когато използват автоматизиран продукт и как неговите решения могат да ги засегнат
  • Потребителите да могат да се отказват от системите с изкуствен интелект в полза на човешки алтернативи
  • Дори някои системи за AI да се доближават до човешкото ниво на интелигентност, те все още са несъвършени, предупреждават експертите. "Системите с AI твърдят, че решават проблем, който всъщност не решават и дори допускат грешки."

    Но технологичните компании може да не са достатъчно надеждни, за да тестват собствените си продукти за безопасност. Едно от потенциалните решения е да бъде създадена Федерална агенция, подобна на Агенцията по храните и лекарствата на САЩ.

    "Не казвам, че това е единственият модел, но когато Агенцията за контрол на храните и лекарствата одобрява лекарства, те карат компаниите да правят свои собствени вътрешни тестове и експерт от Агенцията за контрол на храните и лекарствата ги разгледа, за да реши дали това лекарство трябва да бъде одобрено или не", обяснява проф. Венкатасубраманиън.

    ChatGPT вече е оръжие в ръцете на хакерите От март 2023 г. насам изследователи на компанията са открили

    Според него обаче, има една етична бариера, която все още не е технологично възможна и може би никога няма да бъде: защита от дискриминационни предразсъдъци.

    Всяка система за изкуствен интелект се създава от човек или група хора и се обучава на набори от данни. Всеки човек има някаква форма на пристрастност и дори гигантски набори от данни не могат да представят интернет или целия човешки опит, казва професорът.

    Неговото частично решение, поне засега, е да се смекчат пристрастията, като се създават AI "с принос и разбиране от всички, които ще бъдат засегнати", като се подлагат на независими тестове и се разчита на надзор от трети страни, за да се отчитат разработчиците и да се отстраняват очевидните пристрастия.

    "Не мисля, че има начин която и да е система - човешка или базирана на изкуствен интелект, да бъде напълно свободна от пристрастия. Това не е целта. Целта е да има отчетност.", допълва той.

    На пръв поглед голяма част от предложенията изглеждат осъществими - особено след като някои технологични лидери показват откритост към регулациите на AI.

    Основателят на DeepMind: AI на човешко ниво е като да скочим до Луната Сложните езикови модели LLM, макар и впечатляващи, са на светлинни години от AGI

    Главният изпълнителен директор на производителя на чипове Nvidia Дженсън Хуанг изрично призова за нови правителствени регулации. Google направи подобни изявления през април, а главният изпълнителен директор на Microsoft беше на среща в Белия дом за загрижеността на президента Джо Байдън относно необходимостта от безопасни продукти с AI.

    Има причина, поради която тези компании не могат да приемат бариерите сами, без участието на правителството: Въвеждането на нови правила и изисквания е "скъпо", обяснява проф. Венкатасубраманиън.

    Някои технологични компании никога няма да се ангажират напълно, дори и да изразят желание за промяна, добавя той. Ето защо очаква, че ще е необходима "комбинация от действия по прилагане, законодателство и доброволни действия".

    Такива вече са налице. В четвъртък Белият дом представи планове за инвестиране в етични инициативи в областта на AI, а правителството на Обединеното кралство започна разследване на рисковете, свързани с технологиите за изкуствен интелект. Законодателите в ЕП също подготвят пакет от регулации, обобщава CNBC.