Белият дом затяга правилата за използване на AI в администрацията
Системите, които използват федералните агенции, „не трябва да застрашават правата и безопасността на американския народ“
Изминаха пет месеца, откакто президентът Джо Байдън подписа първата си изпълнителна заповед за контрол на бързия напредък в областта на изкуствения интелект. Тази седмица Белият дом направи още една стъпка напред в прилагането ѝ с политика, която има за цел да регулира използването на AI от федералното правителство. Предпазните мерки, които агенциите трябва да предприемат, включват, наред с други неща, начини за смекчаване на риска от алгоритмични отклонения.
„Вярвам, че всички лидери от правителството, гражданското общество и частния сектор имат морално, етично и обществено задължение да се уверят, че изкуственият интелект се възприема и развива по начин, който предпазва обществеността от потенциални вреди, като същевременно гарантира, че всеки може да се наслаждава предимствата му", коментира вицепрезидентът Камала Харис пред репортери по време на пресконференция за представяне на новите изиквания, цитирана от Engadget.
Тя изброи три задължителни изисквания съгласно новата политика на Службата за управление и бюджет (OMB). На първо място, агенциите ще трябва да гарантират, че всички AI инструменти, които използват, „не застрашават правата и безопасността на американския народ“. Те имат време до 1 декември да се уверят, че разполагат с „конкретни предпазни мерки“, за да са сигурни, че използваните от тях AI системи не засягат безопасността на американците. В противен случай дадената агенция ще трябва да спре да използва AI продукта, освен ако нейните ръководители не могат да се обосноват защо премахването ѝ би имало „неприемливо“ въздействие върху критични операции.
Въздействие върху правата и сигурността на американците
Съгласно политиката се счита, че дадена AI система оказва влияние върху безопасността, ако „се използва или се очаква да бъде използвана в реални условия, за да контролира или значително да повлияе на резултатите от определени дейности и решения“. Те включват поддържане на легитимността на изборите и инфраструктурата за гласуване; контролиране на критични функции за безопасност на водните системи, аварийните услуги и електрическите мрежи; автономни превозни средства; и управление на физическите движения на роботи в рамките на „работно място, училище, жилище, транспорт, медицинска или правоприлагаща среда“.
Освен ако не разполагат с подходящи предпазни мерки или могат по друг начин да оправдаят използването на дадена система, агенциите също така ще трябва да се откажат от тях, ако нарушават правата на американците. Сферите, които политиката предполага, че оказват най-голямо влияние върху въпросните права, включват предсказуема полиция; мониторинг на социални медии за правоприлагане; откриване на плагиатство в училищата; блокиране или ограничаване на свободата на словото; анализ на човешки емоции и мисли; скрининг преди наемане на работа; и „възпроизвеждане на глас на човек без неговото изрично съгласие“.
Що се отнася до генеративния AI, политиката предвижда агенциите да оценяват потенциалните ползи от технологията. Всички те също така трябва да „създадат адекватни предпазни мерки и механизми за надзор, които позволяват използването на генеративен AI, без да представлява неоправдан риск“.
Изисквания за прозрачност
Второто изискване ще принуди агенциите да бъдат прозрачни относно използваните от тях AI системи.
„Днес президентът Байдън и аз изискваме всяка година правителствените агенции на САЩ да публикуват онлайн списък на своите системи за изкуствен интелект, оценка на рисковете, които тези системи могат да представляват, и как тези рискове се управляват“, каза Харис.
Като част от това усилие агенциите са принудени да публикуват информация за това с какви AI алгоритми, модели и данни разполагат, стига това да не вреди на обществеността или на правителствените операции. Ако дадена агенция не може да разкрие конкретни случаи на използване на AI поради причини, свързани с националната сигурност, тя пак ще трябва да докладва някакви показатели, свързани с тях.
Не на последно място, федералните агенции ще трябва да имат вътрешен надзор върху използването на AI. Това включва изискването всяка от тях да назначи главен служител по AI, който да наблюдава използването на технологията в рамките на организацията си.
„Това е нужно, за да се гарантира, че AI се използва отговорно. Трябва да имаме висши ръководители в нашето правителство, които са специално натоварени да наблюдават приемането и използването на AI“, акцентира Харис.
Много агенции също така ще трябва да създадат управителни съвети за AI до 27 май.
Вицепрезидентът на САЩ добави, че лидери от публичния и частния сектор (включително защитници на гражданските права и компютърни учени) са помогнали за оформянето на политиката заедно с бизнес лидери и юристи
Правителствените агенции в САЩ вече използват AI системи по различни начини. Националната администрация за океаните и атмосферата например работи върху модели с изкуствен интелект, които да ѝ помогнат да прогнозира по-точно екстремни метеорологични условия, наводнения и горски пожари, докато Федералната авиационна администрация използва такива за подпомагане на управлението на въздушния трафик в големите градски райони.
„AI представлява не само риск, но и огромна възможност за подобряване на обществените услуги и постигане на напредък по отношение на обществените предизвикателства като справяне с изменението на климата, подобряване на общественото здраве и напредък в справедливите икономически възможности“, казва директорът на OMB Шаланда Йънг. „Когато се използва и контролира отговорно, AI може да помогне на агенциите да намалят времето за изчакване за критични държавни услуги, за да оптимизират и разширят достъпа до основни обществени услуги.“
Тази политика е поредната в поредица от усилия за регулиране на бързо развиващата се сфера на AI. Европейският съюз прие широкообхватен набор от правила за използването на AI в блока и има още рестриктивни законопроекти, които са в процес на подготовка, усилията за регулиране в САЩ възприемат по-скоро смесен подход.
Този месец щатът Юта прие закон за защита на потребителите от измами с изкуствен интелект. В Тенеси Законът за сигурността на гласа и изображението (известен още като Закона на Елвис) е опит да се защитят музикантите от т.нар. дълбоки фалшификати (deepfake), които включват клониране на гласове без разрешение.