Новите технологии често предизвикват страх и безпокойство сред хората извън технологичните индустрии. Най-новият пример за тази тенденция е изкуственият интелект (AI), който е обект на засилена загриженост и неразбиране сред обществеността.

Лесно е да се отхвърлят тези опасения като общочовешка склонност за недоверие към непознатото. Голяма част от тревогите, свързани с AI обаче вече се подкрепят от учените и изследователите, които са в челните редици на развитие на технологията. Създателите на публични политики обединяват усилията си, за да подчертаят значението на управлението на AI като кодекс за етично поведение и регулаторна рамка, пише специализираното издание Dataversity и припомня:

„През май 2023 г. повече от 350 изследователи, инженери и ръководители в областта на изкуствения интелект подписаха отворено писмо, издадено от Центъра с нестопанска цел за безопасност на изкуствения интелект, в което предупреждават, че AI създава "риск от изчезване" за човешкия вид. Групата твърди, че намаляването на опасностите за обществото, идващи от AI, трябва да бъде "глобален приоритет" от същия мащаб като пандемиите и ядрената война.

Управлението на AI е ключът към безопасното, справедливо и ефективно прилагане на технологията. Технологичните компании и законотворците по целия свят полагат усилия за създаване и внедряване на насоки и правила за проектиране и интеграция на системи и продукти, базирани на AI, посочва още платформата и разглежда текущото състояние в сферата на управлението на AI и перспективите за сигурно използване на подобни системи през следващите години.

Какво представлява управлението на AI?

Целта на дисциплината „управление на AI” е да гарантира, че ползите от алгоритмите за машинно обучение и други форми на изкуствен интелект са достъпни за всички по справедлив и равноправен начин. Тя има за цел да насърчи етичното прилагане на технологията, така че нейното използване да бъде прозрачно, безопасно, защитено, отговорно и безпристрастно. За да бъде ефективен, процесът на управление на AI трябва да обединява правителствени агенции, изследователи, системни проектанти, индустриални организации и обществени групи.

Технологични гиганти искат бързо въвеждане на държавни регулации за AIМъск, Зъкърбърг и още много технологични лидери са обсъдили темата с американски законодатели в Капитолия


Ако управлението на AI се провежда по този начин, анализаторите смятат, че то ще гарантира на доставчиците на AI увеличаване на печалбите и реализацията на многобройните ползи от технологията, като същевременно се сведат до минимум обществените вреди.

„Управлението на AI ще предостави на разработчиците практически кодекси за поведение и етични насоки и ще създаде и внедри механизми за измерване на социалното и икономическото въздействие технологията. То ще подпомогне създаването на регулаторни рамки, които налагат безопасно и надеждно прилагане на AI”, посочват от Dataversity.

Етичното използване на изкуствения интелект зависи от шест основни принципа:

Емпатия: Системите за изкуствен интелект трябва да разбират социалните последици от реакциите си към хората и да зачитат човешките емоции и чувства.

Прозрачност: Механизмите за вземане на решения, програмирани в алгоритмите на AI, трябва да са ясни, за да се насърчи отчетността и контролът.

Справедливост: Системите трябва да бъдат предпазени от затвърждаване на съществуващите предразсъдъци в обществото, независимо дали умишлено или неумишлено, за да се гарантира, че те не нарушават правата на човека по отношение на пола, расата, религията, пола и уврежданията.

Италия затяга контрола на платформи, използващи AIПрез март регулаторния орган в страната временно забрани ChatGPT


Безпристрастност: Данните, върху които се обучават системите за машинно обучение, трябва да бъдат регулирани и оценявани, за да се открият и отстранят предубежденията, които те могат да затвърдят.

Отчетност: Потребителите на системите трябва да могат да определят кой е отговорен за защитата от всякакви неблагоприятни резултати, породени от използването на AI.

Безопасност и надеждност: Лицата и обществото като цяло трябва да бъдат защитени от всякакви потенциални рискове, породени от системите с AI, независимо дали се дължат на качеството на данните, архитектурата на системата или процесите на вземане на решения, програмирани в алгоритмите.

Въздействие на генеративния AI

Традиционният AI се фокусира върху разпознаването на модели и прогнози, базирани на съществуващи източници на данни. Генеративният AI баче стига още по-далеч, като използва алгоритми за създаване на нови изображения, текст, аудио и друго съдържание въз основа на данните, върху които е обучен, а не просто да ги анализира, за да разпознава модели и да прави прогнози. Опасностите, които крие генеративният AI, включват потенциално закриване на работни места и безработица, създаване на огромни количества фалшиво съдържание и възможността системите да станат разумни и да развият собствена воля, изброяват още от специализираната технологична платформа и добавя в заключение:

„Непосредствената заплаха, която представлява генеративният AI, е свързана със способността на технологията да създава съдържание, предназначено да влияе върху убежденията и действията на конкретни лица“.