„Съживяването“ на мъртви с помощта на изкуствен интелект (AI) вече е възможно и най-вероятно ще се превърне в практика. По-важното обаче е друго. Трябва ли това да се прави напълно свободно и без всякакви правила?

Този въпрос поставят в свое проучване изследователи от университета в Кеймбридж, пише The Guardian. Тяхната позиция е категорична – регулации са необходими, защото да създадеш дигитално копие на починал любим човек изобщо не е безобидно.

Идеята да „върнем баба си към живот“, но като чатбот всъщност може да доведе до сериозна психологическа травма. И въпреки това е сигурно, че ще се намерят компании, които съвсем безскрупулно ще предлагат подобна услуга в името на печалбата.

„Бързото развитие на този клон от AI технологиите означава, че почти всеки с достъп до интернет и базови познания ще може да съживи свой починал близък“, казва един от авторите на изследването – д-р Катаржина Новачик-Басинска от Кеймбридж.

Тя определя тази част от способностите на AI като „етично минно поле“.

„Важно е приоритет да е достойнството на починалия човек и да гарантираме, че няма да му се посяга с финансови мотиви от предлагащи услуги за дигитален живот след смъртта“, казва тя.

Нещата обаче могат да станат доста грозни. Представете си например, че една компания реши да печели и от реклама чрез продуктите си. Може някой да се шокира когато съживеният дигитално любим човек започне да му рекламира ресторанти или приложения за храна. Така потребителят ще разбере по трудния начин, че данните му са били изтъргувани в името на допълнителна печалба.

Ако обаче дигитално съживените си говорят с деца, ситуацията наистина може да стане опасна. Предполага се, че такива услуги биха се ползвали от терминално болни хора, които искат да помогнат на наследниците си да се справят със загубата. Т.е. да превърнат себе си в т.нар. deadbots, за да присъстват в живота на децата си и след като починат.

Доказателствата, че това помага обаче са твърде малко. Тъкмо обратното – по-вероятно тази практика да навреди, защото вместо близките да преминат през периода на скръб и да продължат по някакъв начин напред, те непрекъснато ще се връщат към мъчителния спомен.

„Няма услуга за пресъздаване на хора, която да докаже, че за децата е полезно да общуват с „мъртви роботи“ или най-малкото – че не им вреди“, казват авторите на изследването.

Така в един момент може да се получи точно обратният ефект – не се зачита достойнството на мъртвите, нито пък психическото здраве на живите. Затова учените от Кеймбридж предлагат редица правила, които регулират материята. Например ползването да бъде позволено само от възрастни, но не и от деца.

Идеята да се използва AI за съживяване на починали близки не е от вчера. Още през 2021 г. канадският писател и създател на видеоигри Джошуа Барбю стана известен след като използва GPT-3, за да направи чатбот, който да говори с гласа на починалата му годеница.

Шест години по-рано програмистката Евгения Куйда създаде чатбот, базиран на съобщения, изпращани от неин починал приятел. Така се роди приложението Replika. Този продукт е базиран на AI чатбот, който събира информация за потребителя, задавайки му различни въпроси. След това се превръща в негов събеседник, приятел, близък. Replika излезе на пазара през 2018 г. Само няколко месеца по-късно вече имаше 2 млн. потребители, а към началото на 2023 г. – около 10 млн. Приложението стана толкова популярно, че властите в различни държави започнаха да му обръщат по-сериозно внимание. В началото на миналата година например в Италия бе забранено на Replika да ползва данните на тамошните си потребители. Аргументите на местната агенция за защита на данните бе, че приложението няма никакви ограничения за възраст, т.е. ползва се и от деца, а това може да доведе до сериозни психологически травми.

Ето и един пример извън чатботовете и виртуалните приятели. През 2021 г. сайтът MyHeritage, който предлага редица услуги, сред които издирване на предците на човек чрез ДНК тест, представи опция (DeepNostalgia) за създаване на видеоклипове от снимки на починали близки. Функцията бързо набра популярност, но от компанията признаха, че някои потребители я намират за зловеща.

„Тази функция е за „връщане към живот“ на наши близки, но тя няма опция за човешка реч, за да предотвратим възможността да се създават фалшиви клипове на живи хора“, заявиха тогава от компанията. Само година по-късно обаче бе представен друг продукт – DeepStory – вече с функция за реч.

На всички вече е ясно, че тази част от AI вероятно ще се развива бурно през следващите години, а извън инцидентите забрани държавите досега не са се задействали по-сериозно да регулират материята.