Онлайн насилието над деца е нарастващ проблем в дигиталната среда от доста време насам.

През 2023 г. Националният център за изчезнали и експлоатирани деца (NCMEC) е получил над 36 милиона сигнала за случаи на сексуална експлоатация на малолетни. Още по-притеснително е, че докладите за онлайн примамване и изнудване на деца са се увеличили с 300%, пише Fast Company.

Сега обаче този феномен навлиза в още по-тревожна зона, защото като оръжие вече се използва изкуственият интелект.

Според нов доклад на анализаторската компания Graphika, хиляди AI чатботове вече се използват за опасни ролеви игри, които симулират малолетни персонажи и експлицитно съдържание.

Екипът на Graphika открива над 10 000 чатбота, обозначени като подходящи за „ролева игра“ със сексуализирани непълнолетни персонажи. Голям брой от тях се разпространяват в 4chan, а други се дискутират в платформи като Reddit и Discord, където има разногласия относно етичните граници на AI инструментите.

„Открихме мащабна общност около сексуализирани чатботове с малолетни персонажи, особено в 4chan“, казва Даниел Сийгъл, разследващ анализатор в Graphika.

Някои от тези AI модели са „джейлбрейкнати“ версии на ChatGPT, Claude и Gemini, позволяващи на потребителите да заобикалят ограниченията на разработчиците и да създават съдържание, което попада в категорията на детска експлоатация.

Повечето от тези опасни инструменти са открити на платформата Chub AI, която е рекламирана като „зона без цензура“ за създаване и споделяне на AI персонажи. Там Graphika открива 7 140 чатбота със сексуализирани малолетни женски персонажи, 4 000 от които са изрично обозначени като под 18 години.

Chub AI отрича, че допуска разпространението на незаконно съдържание, но заявява, че не споделя масовата загриженост около генеративния AI.

„CSAM (материали със сексуална експлоатация на деца) не са позволени на платформата, а съдържание от този тип се докладва незабавно“, казва говорител на Chub AI. „Ламентираме над продължаващата медийна истерия около генеративния AI и се надяваме това скоро да приключи.“

Въпреки че технологичните компании като OpenAI, Google и Anthropic изграждат строги защитни механизми, докладът на Graphika разкрива, че зловредни общности активно се опитват да ги заобиколят.

С нарастващото влияние на AI, въпросът не е дали, а как тези технологии ще бъдат регулирани, за да не се превърнат в оръжие за онлайн хищниците.

Дискусии в Reddit, анализирани от Graphika, разкриват сериозен морален спор - етично ли е взаимодействието с AI персонажи, представящи се за малолетни?

Но разговорите не спират дотук.

Една от основните теми, които изплуват, са техниките и тактиките за заобикаляне на защитите в AI чатботовете, разработени от големите технологични компании.

В мрежата вече съществуват поне осем услуги, които помагат на потребителите да отключат „нецензурираните“ версии на тези чатботове.

Според Сийгъл, най-тревожно е колективното усилие на тези общности да споделят информация за пробив на моделите.

„Това, което ми направи силно впечатление в доклада, е начинът, по който хиляди потребители си сътрудничат, за да разменят знания за джейлбрейк на AI модели или за заобикаляне на ограниченията им“, казва Сийгъл.

Определянето на точния мащаб и тежест на проблема остава огромно предизвикателство за компаниите, които създават този тип AI модели.

„Виждаме, че се полагат усилия и че има активни дискусии по темата“, казва Сийгъл, но подчертава, че не можем да виним единствено разработчиците за начина, по който техните технологии се използват.

„Генеративният AI има безброй приложения и технологичните компании трябва да помислят за всички възможни начини, по които моделите им могат да бъдат експлоатирани“, допълва той.

От Graphika подчертават, че не участват в регулаторни политики, но предоставят на компаниите анализи за рисковете, за да могат те сами да решат какви мерки да предприемат.

Докато обществените дебати за генеративния изкуствен интелект често се фокусират върху екзистенциални заплахи като биологично оръжие или дезинформация, по-реалните и непосредствени рискове често остават на заден план, предупреждава Сийгъл.

„Говорим за оръжия, deepfake материали и глобални заплахи, но рядко обръщаме внимание на реалните ситуации - как AI алгоритми се използват за анимиране на насилие или за взаимодействие със сексуализирани малолетни персонажи онлайн“, казва той.