От Gmail до Word: Tехнологичната революция изисква ново отношение към личните данни
Бързото интегриране на AI в софтуерите, които използваме ежедневно, повдига сериозни въпроси относно политиките за защита на личния живот на потребителите
Началото на годината е чудесно време за основна киберхигиена. Всички знаем, че трябва да инсталираме последните пачове, когато излязат, да сменяме пароли и да актуализираме софтуера. Но едно притеснение, което все повече се прокрадва на преден план, е понякога тихото интегриране на потенциално нарушаващ неприкосновеността на личния живот изкуствен интелект в програмите.
„Бързото интегриране на AI в нашия софтуер и услуги повдига и трябва да продължи да повдига сериозни въпроси относно политиките за защита на личните данни, които предшестваха ерата на тази технология“, казва пред CNBC Линет Оуенс, вицепрезидент по глобалното обучение на потребителите в компанията за киберсигурност Trend Micro.
Много програми, които използваме днес - независимо дали става въпрос за електронна поща, счетоводни инструменти или софтуери за продуктивност, както и приложения за социални медии и стрийминг - се управляват от политики за поверителност, в които липсва яснота дали личните ни данни могат да бъдат използвани за обучение на модели на AI.
„Това прави всички нас уязвими към използването на личните ни данни без съответното съгласие. Време е всяко приложение, уебсайт или онлайн услуга да разгледа добре данните, които събира, с кого ги споделя, как ги споделя и дали те могат да бъдат достъпни за обучение на системи с изкуствен интелект“, категорична е Оуенс. „Има много неща, които трябва да се наваксат.“
Къде AI вече е в ежедневния ни онлайн живот
Оуенс казва, че потенциалните проблеми се припокриват с повечето програми и приложения, които използваме ежедневно.
„Много платформи интегрират AI в работата си от години, много преди това да стане модерна дума“, казва тя.
Gmail използва изкуствен интелект за филтриране на спам и предсказване на текст с функцията си Smart Compose. Стрийминг услуги като Netflix разчитат на технологията, за да анализират навиците за гледане и да препоръчват съдържание. Платформи за социални медии като Facebook и Instagram отдавна използват AI за лицево разпознаване в снимки и персонализирани канали със съдържание.
„Въпреки че тези инструменти предлагат удобство, потребителите трябва да вземат предвид потенциалните компромиси с неприкосновеността на личния живот, като например колко лични данни се събират и как се използват за обучение на системите с AI. Всеки трябва внимателно да прегледа настройките за поверителност, да разбере какви данни се споделят и редовно да проверява за актуализации на условията за ползване на услугите“, съветва Оуенс.
Експертите се притесняват, че напредъкът в областта на изкуствения интелект може да доведе до възможността данните и думите в програми като Microsoft Word също да бъдат използвани по начини, които настройките за защита на личните данни не покриват адекватно.
От Microsoft казват пред CNBC, че не използва данни на клиенти от потребителските и търговските приложения на Microsoft 365 за обучение на фундаментални големи езикови модели. От компанията добавят, че в определени случаи клиентите могат да дадат съгласието си за използване на техните данни за конкретни цели, като например за разработване на потребителски модели, изрично поискани от някои търговски клиенти. Освен това настройката дава възможност за използване на подкрепени от облака функции, които много хора очакват от инструментите за продуктивност, като например съавторство в реално време, облачно съхранение и инструменти като Editor в Word, които предоставят корекция на правопис и граматика.
Настройките за поверителност по подразбиране са проблем
Тед Мирако, главен изпълнителен директор на компанията за софтуер за сигурност Approov, посочва, че функции като свързаните изживявания на Microsoft са нож с две остриета - обещание за повишена производителност, но въвеждане на значителни червени флагове за поверителността. Според него настройките по подразбиране може да включат хората в нещо, за което те не са непременно информирани, най-вече във връзка със събирането на данни. Това важи с пълна сила и за организациите.
„Уверението на Microsoft осигурява само частично облекчение, но все още не е в състояние да намали някои реални опасения за неприкосновеността на личния живот“, казва Мирако.
Според Кавех Вадат, основател на RiseOpp, маркетингова агенция за SEO, има и друг проблем, дори политиките да са съобразени с изискванията на ерата на AI.
„Ако определени функции са включени по подразбиране, динамиката се променя значително“, казва Вадат. „Автоматичното им активиране, дори и с добри намерения, по своята същност поставя върху потребителите задължението да преглеждат и променят настройките си за поверителност, което може да се стори натрапчиво или манипулативно за някои от тях“.
Неговото мнение е, че компаниите трябва да бъдат по-прозрачни в среда, в която има много недоверие и подозрения по отношение на AI. Те трябва да наблегнат на отказа по подразбиране, а не на включването, и да предоставят по-подробна, нетехническа информация за това как се обработва личното съдържание.
„Дори технологията да е напълно безопасна, общественото възприятие се формира не само от фактите, но и от страховете и предположенията - особено в ерата на AI, където потребителите често се чувстват безправни“, казва той.
„Настройките по подразбиране, които позволяват споделяне, имат смисъл от бизнес съображения, но са вредни за поверителността на потребителите“, акцентира и Йохем Хюмел, доцент по информационни системи и управление в Warwick Business School към Университета в Уоруик, Англия. „Компаниите могат да подобрят продуктите си и да поддържат конкурентоспособност, ако обменът на данни е по подразбиране. Въпреки това, от гледна точка на потребителите, даването на приоритет на неприкосновеността на личния живот чрез приемане на модел за споделяне на данни с право на избор би било по-етичен подход“.
И доколкото допълнителните функции, предлагани чрез събирането на данни, не са задължителни, потребителите могат да изберат коя от тях отговаря в по-голяма степен на техните интереси.
Управление на рисковете
Според Кевин Смит, директор на библиотеките в Colby College, в области като авторското право опасенията за масово копиране от страна на ученици с висше образование са преувеличени, но еволюцията на изкуствения интелект се пресича с основните проблеми, свързани с неприкосновеността на личния живот.
„Голяма част от опасенията за неприкосновеността на личния живот, които понастоящем се повдигат във връзка с AI, всъщност съществуват от години. Бързото внедряване на AI, обучен на големи езикови модели, просто насочи вниманието към някои от тези въпроси“, посочва Смит. „Личната информация е свързана с взаимоотношенията, така че рискът моделите на AI да разкрият данни, които са били по-сигурни в една по-„статична“ система е истинската промяна, с която трябва да намерим начини да се справим“.
В повечето програми изключването на функциите на изкуствения интелект е опция, скрита дълбоко в настройките, независимо дали става дума за платформите на Microsoft или Gmail. Освен това то е свързано със загуба на определени функционалности. Затова повече прозрачност по отношение на ползите и рисковете не е никак излишна.
„Същността на проблема се крие в неясното оповестяване и липсата на ясна комуникация за това какво означава „свързан“ и колко дълбоко се анализира или съхранява личното съдържание“, казва Чаар. „За тези, които не са наясно с технологиите, AI може да се оприличи на това да поканите полезен асистент в дома си, само за да научите по-късно, че той е записвал личните ви разговори за учебно ръководство.“
Решението за управление, ограничаване или дори отнемане на достъпа до данни подчертава дисбаланса в настоящата цифрова екосистема.
„Без стабилни системи, които дават приоритет на съгласието на потребителите и предлагат контрол, хората са уязвими към повторното използване на техните данни по начини, които те нито предвиждат, нито се възползват от тях“, казва Чаар.