Трябва ли адвокатите да използват AI пред съда
Федералният апелативен съд в Ню Орлиънс изисква от адвокатите да удостоверяват, че не са разчитали на програми с изкуствен интелект за изготвяне на документи. В случай, че са, юристите трябва да докажат, че е проверена точността на всеки текст в техните съдебни материали.
Петият окръжен апелативен съд на САЩ представя в съобщение първия предложен закон в страната, целящ да регулира използването на инструменти за генеративен изкуствен интелект като ChatGPT на OpenAI от адвокати, информира Reuters.
Aдвокатите, които невярно декларират спазването на правилото, могат да бъдат изправени пред зачеркване на подадените от тях документи, както и да получат санкции.
Предложеното правило се появява в момент, когато съдиите в страната се борят с бързото нарастване на програмите за генеративен изкуствен и проучват необходимостта от предпазни мерки за използването на развиващата се технология в съдебните зали.
Опасностите, свързани с използването на AI от адвокатите, излизат на първите страници на вестниците през юни, когато двама нюйоркски адвокати са санкционирани за подаване на правен документ, който включва шест фиктивни цитата от дела, генерирани от ChatGPT..
През юни американският окръжен съдия Брантли Стар от Северния окръг на Тексас става един от първите федерални съдии в страната, който изисква от адвокатите да удостоверят, че не използват изкуствен интелект за изготвяне на своите документи, без човек да проверява точността им.
През октомври Окръжният съд на САЩ за Източен окръг Тексас обявява правило, което влиза в сила от 1 декември и което изисква от адвокатите, използващи програми за AI, да "преглеждат и проверяват всяко компютърно генерирано съдържание".
В бележките, придружаващи промяната на правилото, съдът заявява, че "често продуктът на тези инструменти може да бъде фактически или правно неточен" и че технологията "никога не замества абстрактната мисъл и решаването на проблеми" на адвокатите. Институцията също така предупреждава, че докато адвокатите полагат клетва да спазват закона и да представляват своите клиенти, платформите за изкуствен интелект не го правят.
ChatGPT на OpenAI предупреждава потребителите, че програмата "може понякога да генерира невярна информация".