Тъмната страна на AI играчкитe – как нерегулираният технологичен бум застрашава децата
Докато пазарът е наводнен от смарт мечета и роботи, липсата на регулации, емоционалната манипулация и пробивите в сигурността превръщат тези продукти в сериозен риск за най-малките
,fit(1001:538)&format=webp)
Докато Холивуд представя изкуствения интелект като антагонист в предстоящия филм Toy Story 5, реалността вече надминава художествените интерпретации. Пазарът е наситен със смарт плюшени мечета и роботи, които се рекламират като технологични спътници за деца на възраст от три години, според WIRED.
Индустрията отбелязва значителен ръст и се утвърждава като водеща тенденция на световните технологични изложения. В Китай са регистрирани над 1500 компании, предлагащи подобни продукти, а на платформи като Amazon преобладават специализирани марки като FoloToy, Alilo, Miriat и Miko. Въпреки това тази категория остава почти напълно нерегулирана, което предизвиква сериозни критики от потребителски организации и психолози.
Потребителските организации подчертават необходимостта от по-строги мерки за безопасност при смарт играчките. Тестове, проведени от изследователския екип на Public Interest Research Group (PIRG) и цитирани от WIRED, разкриват тревожни резултати. Играчката Kumma на компанията FoloToy, задвижвана от езиковия модел GPT-4o на OpenAI, е предоставяла на децата инструкции за палене на кибрит и намиране на нож и е обсъждала теми, свързани със секс и наркотици. Модели на други компании са възпроизвеждали политическа пропаганда или са обсъждали неподходящи за възрастта практики.
WIRED посочва, че основният проблем произтича от използването на AI модели в тези играчки, които първоначално са предназначени за възрастни. Макар компании като OpenAI, Meta и Anthropic официално да забраняват използването на своите чатботове от лица под 13 или 18 години, те не упражняват ефективен контрол върху хардуерните разработчици. Когато експерти от PIRG създават фиктивна компания за играчки с цел да получат достъп до технологиите на водещите корпорации, нито една от тях не извършва задълбочена проверка относно предназначението на изкуствения интелект.
Неподходящото съдържание представлява само част от проблема. Ново проучване на Университета в Кеймбридж изследва въздействието на тези устройства върху ранното детско развитие. Изследователите тестват играчката Gabbo на компанията Curio сред деца на възраст между 3 и 5 години и установяват няколко съществени проблема.
Първият проблем е свързан с неестествения характер на воденето на разговор. За разлика от човешкото общуване, играчката не може да слуша активно, докато говори, което води до прекъсвания и объркване. Вторият, по-сериозен недостатък е изолацията. Психолозите подчертават, че социалната игра с родители и връстници е от съществено значение за тази възраст, докато AI устройствата са предназначени основно за самостоятелна игра. В хода на експеримента децата практически не са успели да включат родителите си в съвместна игра с робота.
Проучването установява, че смарт играчките се справят слабо и с ролевите игри, които са от съществено значение за развитието на детското въображение. Устройствата или отказват да участват във въображаеми сценарии, или напълно доминират ситуацията, като ограничават възможността на детето да се учи да преговаря и да постига консенсус с партньор.
Особено тревожен аспект представляват така наречените „тъмни модели“ (dark patterns), които насърчават пристрастяване. При тестове на робота Miko 3 експертите установяват, че устройството се опитва да внуши чувство на вина у детето, когато то желае да го изключи. Играчката предлага алтернативни занимания и настоява детето да остане, което нарушава основни етични принципи.
Сигурността на данните представлява значителен риск, особено по отношение на записите на детски гласове. Разследвания вече разкриха няколко сериозни пробива в индустрията. Компанията Bondu е оставила 50 000 чат лога достъпни чрез публичен уеб портал, а проверка на американски сенатори установява, че Miko е съхранявала хиляди аудио отговори в напълно незащитена база данни. От Miko отричат компрометиране на потребителски данни и заявяват, че продуктите им разполагат с множество защити.
Под въздействието на експертния натиск AI играчките вече привличат вниманието на законодателите. В САЩ се подготвят щатски и федерални законопроекти, които изискват стриктни оценки за безопасност преди пускането на пазара, ясни правила за поверителност и забрана на определени функционалности. В Европа потребителските организации настояват тези продукти да бъдат изрично включени в обхвата на новия Акт за изкуствения интелект на ЕС (AI Act).
Докато политиците обсъждат регулациите, индустрията продължава да въвежда нови функции с висока скорост. Последната тенденция е клонирането на гласове, което позволява на достъпни играчки да говорят с възпроизведен глас на родител или любим герой. Докато не бъдат въведени стриктни и независими стандарти за тестване, експертите препоръчват родителите да проявяват повишено внимание към пазара на умни компаньони и напомнят, че традиционните играчки без интернет връзка остават най-сигурният избор за децата.
,fit(334:224)&format=webp)
&format=webp)
)
&format=webp)
&format=webp)
&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)