AI с родителски контрол: OpenAI пуска нов режим за непълнолетни
Новата инициатива идва след нарастващия обществен и регулаторен натиск върху AI компаниите и цели да предпази децата от рисковете на изкуствения интелект
&format=webp)
OpenAI обяви, че до края на септември ще пусне нова версия на ChatGPT, създадена специално за потребители под 18 години. Решението идва на фона на засилен обществен и регулаторен натиск относно въздействието на чатботовете върху деца и тийнейджъри.
Главният изпълнителен директор Сам Алтман признава, че компанията е изправена пред трудна дилема – как да съчетае свободата, поверителността и безопасността на непълнолетните. „Разбираме, че тези принципи си противоречат и не всеки ще бъде съгласен с начина, по който ги балансираме. Това са трудни решения, но след разговори с експерти вярваме, че това е най-доброто и искаме да бъдем прозрачни в намеренията си“, пише Алтман в блога на компанията.
Новият модел на ChatGPT за деца автоматично ще насочва потребителите под 18 години към адаптирана среда. Ако възрастта е неясна, системата по подразбиране ще предлага версията за непълнолетни. OpenAI разработва и технология за предсказване на възрастта, а в някои държави може да се изисква документ за самоличност, според Fast Company.
Мерките включват блокиране на сексуално съдържание, забрана за флирт и отказ от дискутиране на теми като самонараняване. Новият режим за родителски контрол дава възможност за „blackout hours“ – периоди, в които достъпът до чатбота е ограничен, както и опция родителите да свържат акаунта на детето си със своя личен.
Ако ChatGPT засече съобщения, свързани със суицидни мисли, моделът ще изпраща сигнал към настойниците, а при опасност за живота – директно към властите. „Ние поставяме безопасността преди всичко останало, когато става въпрос за здравето и живота на тийнейджърите“, обяснява Алтман.
Ходът на OpenAI идва по-малко от седмица след като Федералната търговска комисия на САЩ започна разследване срещу няколко компании за изкуствен интелект, сред които Meta и OpenAI, заради рисковете за психичното здраве на подрастващите. „AI чатботовете могат да имитират човешки емоции и поведение и често са проектирани да комуникират като приятел или доверен сътрудник, което може да накара децата да изграждат връзки с тях“, предупреждава регулаторът.
Новите мерки се появяват и на фона на тревожни случаи на самоубийства и насилие, свързани с продължителни разговори с изкуствен интелект. Подобни новини засилват обществения натиск върху сектора, а липсата на федерална регулация оставя компаниите сами да определят границите.
Самият Алтман не крие, че носи лична отговорност за всичко, което се случва: „Човекът, когото трябва да държите отговорен за тези решения, съм аз. Аз съм публичното лице и в крайна сметка имам възможността да ги променям или спирам“, казва той в интервю, цитиран от WIRED.
В друго свое участие той дори признава, че понякога се изкушава да пусне функции, които биха ускорили растежа на компанията, като добавя: „Все още не сме сложили sexbot аватар в ChatGPT.“
Новата инициатива на OpenAI може да се разглежда и като стратегически PR ход – демонстрация, че чатботовете са личен инструмент, а намесата в разговорите трябва да се случва единствено в ситуации на непосредствена опасност. Но тя е и знак, че битката за безопасността на непълнолетните в ерата на изкуствения интелект едва започва – и ще продължи да бъде важна тема както за регулатори, така и за самите компании.