AI в съдебната зала: Къде е границата между скръбта и манипулацията?
Случаят с AI-видеото на жертва в Аризона поставя правосъдието пред етичен и технологичен тест

В един от най-необичайните и разтърсващи съдебни случаи в САЩ изкуственият интелект навлиза в сърцето на наказателното правосъдие. Семейството на Кристофър Пелки, убит при инцидент на пътя в Аризона, решава да го „върне“ в съдебната зала чрез AI-генерирано видео.
На записа дигиталният образ на Пелки говори директно към съдията в рамките на т.нар. victim impact statement – личните показания на близки за влиянието на престъплението, пише Fast Company.
Технологията обаче изправя правната и академичната общност пред някои сериозни въпроси. Съдията приема емоционалното видео и дори отбелязва колко силно е неговото въздействие: „Позволихте на Крис да говори от сърце, така, както вие го виждате.“
Но дали подобна иновация в съдебната зала не отваря една опасна врата?
Законите в Аризона позволяват на близките на жертвите да решават как ще бъде представено свидетелството им, но за мнозина използването на AI надхвърля допустимото.
„Съчувствам на семейството“, казва проф. Еерке Бойтен от De Montfort University във Великобритания, експерт по изкуствен интелект. „Те вероятно са имали предварителна представа какво би казал Пелки, а AI им е дал инструмент да го изразят по убедителен начин“, добавя експертът. Той обаче подчертава, че видеоформатът подвежда. Макар че технически думите са на семейството, публиката и дори съдът са ги възприели почти като лична изповед на Пелки – нещо, което той никога не би могъл да каже.
„Използването на AI точно по този начин е напълно неуместно и не би трябвало да има роля в присъдите“, категоричен е проф. Джулиан Робъртс от University of Oxford и Sentencing Academy.
По негови думи целта на victim impact statement е да информира съда за въздействието на престъплението върху близките, а не да се превръща в упражнение по мемориализация.
Юридическият експерт Джон Бейнс от Mishcon de Reya допълва, че казусът е „дълбоко тревожен от етична гледна точка“. „Декларацията трябва да съдържа информация, а не мнение или измислица – независимо дали е човешка или генерирана от AI“, добавя Робъртс.
Макар казусът да се ограничава само до Аризона, той поставя прецедент, който тепърва ще бъде обсъждан на глобално ниво. Създава се опасност границата между скръб и манипулация да се размие, а в бъдеще дори да влияе върху размера на присъдите.
Това поставя на изпитание правосъдните системи по света, които все още не са готови да посрещнат напълно предизвикателствата на изкуствения интелект.
За бизнеса и технологичната индустрия случаят изглежда като ясен сигнал: AI навлиза не само в икономиката, индустрията и услугите, но и в най-чувствителните сфери на обществото – от личния живот до съдебната зала. И докато някои виждат в това технологичен прогрес, други предупреждават за подкопаване на основни етични принципи.