Какво може да се обърка, когато полицията използва AI?
Управленията в редица американски градове вече използват технологията за по-бързо писане на доклади, но това крие множество рискове
Въпреки документираните рискове, някои полицейски управления в САЩ тестват чатботове с изкуствен интелект, които изготвят доклади за престъпления, като решение за спестяване на време. Какво обаче може да се обърка?
Според Associated Press (AP) полицаите от Оклахома Сити са приели използването на AI чатботове, за да съставят „първи проекти“ на доклади за престъпления и инциденти, базирани на аудиозаписи от камерите, разположени на униформите им.
ZDNet разказва за полицейски сержант на име Мат Гилмор, който е използвал чатбот с изкуствен интелект, наречен Draft One, за да помогне за написването на доклад за инцидент, след като неуспешно преследване на заподозрян е заснето от камерата на тялото му, записала „всяка дума и лай на полицейското куче“. Аудиозаписът е вкаран в инструмента за изкуствен интелект, за да „изготви доклад за осем секунди“.
Draft One използва модела GPT-4 на OpenAI, който захранва ChatGPT, за да анализира и обобщава аудио от телесни камери. Axon, разработчик на технологии и оръжия за армията, правоприлагащите органи и цивилни лица, пуска продукта на пазара по-рано тази година, рекламирайки го като „незабавен мултипликатор на сила“ и средство за спестяване на време за отделите.
Известно е, че ChatGPT "халюцинира", но представителите на Axon казват, че са отчели това. Ноа Спицър-Уилямс, старши продуктов мениджър в компанията, заявява пред AP, че Draft One намалява „креативността“ на ChatGPT, така че той „не разкрасява и не халюцинира по същите начини, по които бихте открили, ако просто използвате ChatGPT самостоятелно“.
Въз основа на съвет от прокурори полицейското управление на Оклахома Сити използва Draft One само за „дребни“ инциденти - без тежки престъпления или случаи с насилие. Създадените от него доклади не водят до арести. Но други полицейски управления в САЩ, включително във Форт Колинс, Колорадо, и Лафайет, Индиана, вече са въвели технологията като основно помагало при писането на доклади за всички случаи. Един от полицейските началници обяснява пред AP, че „тя е изключително популярна“.
Някои експерти обаче имат опасения. Юристът Андрю Фъргюсън например казва пред информационната агенция, че е „загрижен, че автоматизацията и лекотата на технологията ще накарат полицейските служители да бъдат по-малко внимателни при писането“.
Неговата загриженост за внедряването на AI в полицейските управления за рационализиране на работните процеси говори за всеобхватни проблеми, свързани с разчитането на подобни системи за автоматизиране на определени работни процеси. Съществуват многобройни примери за инструменти, задвижвани от AI, които влошават системната дискриминация. Например, проучване показва, че работодателите, които използват AI инструменти за автоматизиране на процесите си по наемане на работа, без активни мерки за тяхното смекчаване, често стават жертва на предубеждения заради прогнозните и анализите, които правят те.
В съобщението на Axon се казва, че Draft One „включва редица критични предпазни мерки, като изисква всеки доклад да бъде прегледан и одобрен от служител, гарантиращ точността и отчетността на информацията преди подаването му“. Разбира се, това оставя място за човешки грешки и пристрастия, които вече са отдавна известни проблеми в полицейската дейност.
Нещо повече, изследователи лингвисти установяват, че големите езикови модели (LLM) като GPT-4 „въплъщават скрит расизъм“ и не могат да бъдат обучени да противодействат на расиолингвистичните стереотипи по отношение на маргинални езици като афроамериканския английски. По същество LLM могат да поддържат диалектни предразсъдъци, когато откриват езици като него.
Редакторът на списание Logic(s) Едуард Онгвезо младши и професорът по информационни технологии Джотан Садовски също са категорично против автоматизираните доклади за престъпления. В подкаста This Machine Kills двамата отбелязват, че расовите предразсъдъци, натрупани от западноцентричните данни за обучение и самите камери за наблюдение, могат да навредят на маргинализираните хора.
На въпроса как Axon компенсира тези опасения, директорът на отдела за стратегически комуникации на компанията Виктория Киф отново подчертава значението на човешкия преглед. В имейл до ZDNET тя отбелязва, че „полицейските доклади продължават да бъдат отговорност на служителите“ и че „Axon стриктно тества нашите продукти с изкуствен интелект и се придържа към набор от ръководни принципи, за да гарантира, че въвеждаме иновации отговорно“.
Компанията е провела две вътрешни проучвания, като използва 382 примерни доклада специално за тестване на расовите пристрастия. Те оценяват три аспекта - последователност, пълнота и тежест на избора на думи - за откриване на евентуални расови пристрастия и дали чатботовете изработват формулировки или разкази, които се различават от „изходния запис“. Проучванията не откриват „статистически значима разлика“ между докладите на Draft One и стенограмите.
Draft One интерпретира само аудио, но Axon тества и използването на компютърно зрение за обобщаване на видеоматериали. Главният изпълнителен директор на разработчика Рик Смит обаче е категоричен, че „предвид цялата чувствителност около полицейската дейност, около расовата и друга идентичност на участващите хора, това е област, в която мисля, че ще трябва да свършим много работа, преди да я въведем“.
Axon, чиято цел е да намали с 50% смъртните случаи, свързани с огнестрелни оръжия, между полицаи и цивилни лица. Според базата данни на Washington Post за полицейските стрелби обаче от 2020 г. насам полицията в САЩ убива повече хора всяка година, въпреки масовото въвеждане на телесни камери във всички полицейски управления в страната.