Докато технологичният сектор се надпреварва да разработва и внедрява нови мощни чатботове с изкуствен интелект, широкото им разпространение разпалва нов набор от опасения за неприкосновеността на личните данни сред някои компании, регулатори и наблюдатели в сектора.

Някои компании, сред които JPMorgan Chase (JPM), ограничиха използването на ChatGPT от служителите си заради опасения, свързани с ограниченията за използване на софтуер на трети страни, посочва CNN и припомня, че притесненията за неприкосновеността на личния живот се увеличиха още повече, когато OpenAI, компанията, която стои зад ChatGPT, разкри, че на 20 март е трябвало временно да изключи инструмента от мрежата, за да отстрани грешка, позволяваща на някои потребители да виждат темите от историята на чатовете на други потребители.

Същият бъг, който вече е отстранен, позволяваше на някои потребители "да виждат името и фамилията на друг активен потребител, имейл адреса, адреса за плащане, последните четири цифри от номера на кредитната/дебитната карта и датата на изтичане на валидността", стана ясно от тогавашната публикация в блога на OpenAI.

Не на последно място, миналата седмица регулаторните органи в Италия издадоха временна забрана за ChatGPT в страната, позовавайки се отново на опасения за неприкосновеността на личния живот, след като OpenAI разкри гореописаните проблеми.

Бил Гейтс: Призивите за спиране на AI няма да решат предизвикателстватаСъоснователят на Microsoft смята, че е по-добре да се съсредоточим върху това как да използваме развитието на изкуствения интелект
"Черна кутия" за данни

"Съображенията, свързани с неприкосновеността на личния живот, при нещо като ChatGPT не могат да бъдат преувеличени", коментира пред CNN Марк Маккриъри, съпредседател на практиката за неприкосновеност на личния живот и сигурност на данните в адвокатската кантора Fox Rothschild LLP. "Това е като черна кутия."

ChatGPT, който стартира публично в края на ноември, позволява на потребителите да създават есета, разкази и текстове на песни, като просто въвеждат определени подсказки. Оттогава Google и Microsoft също пуснаха инструменти, базирани на изкуствен интелект, които работят по същия начин и се захранват от големи езикови модели, обучени на базата на огромни масиви от онлайн данни.

Когато потребителите въвеждат информация в тези инструменти, те не знаят как тя ще бъде използвана след това, посочва Маккриъри, което, по думите му, поражда особено голяма загриженост за компаниите. Тъй като все повече служители използват тези инструменти, за да си помагат с работните имейли или бележки от срещи, Маккриъри предупреждава, че това създава рискове “търговските тайни на една компанията да попаднат в базите данни на подобни генеративни изкуствени интелекти."

Стив Милс, главен експерт по етиката на изкуствения интелект в Boston Consulting Group, също свидетелства пред CNN, че най-голямото притеснение за неприкосновеността на личния живот, което повечето компании имат във връзка с тези инструменти, е "неволното разкриване на чувствителна информация".

"Всички тези служители правят неща, които могат да изглеждат безобидни, като, например: "О, мога да използвам това, за да обобщя бележките от срещата", казва Милс пред CNN. "Но когато вмъквате бележките от срещата под формата на команда към изкуствения интелект, потенциално разкривате цял куп чувствителна информация."

Ако данните, които хората въвеждат, се използват за по-нататъшно обучение на тези инструменти с изкуствен интелект, както заявяват много от компаниите, които стоят зад тях, тогава вие "сте загубили контрол над тези данни и някой друг ги притежава", категоричен е Милс.

Автоматизация и продуктивност - AI променя начините, по които работим Технологията отваря много нови хоризонти, но идва и с някои притеснения
Политики за поверителност

OpenAI посочва в своята политика за поверителност, че събира всякакъв вид лична информация от хората, които използват нейните услуги. От компанията обясняват, че може да използват тази информация, за да подобряват или анализират услугите си, да провеждат изследвания, да комуникират с потребителите и да разработва нови програми и услуги, наред с други неща.

Освен това там специално е отбелязано, че събраната лична информация може да се предоставя на трети страни без допълнително уведомяване на потребителя, освен ако това не се изисква от закона. И ако това ви изглежда непрозрачна политика, посочва CNN, то трябва да знаете, че всъщност този подход се е превърнал в норма за технологичната индустрия в ерата на интернет.

Не на последно място, в отделен документ за условията за ползване OpenAI прехвърля по-голямата част от тежестта върху потребителя, като заявява, че той трябва да предприеме подходящи мерки при работа с нейните инструменти.

"Ние не използваме данни за продажба на нашите услуги, реклама или изграждане на профили на хора. Използваме ги, за да направим нашите модели по-полезни за хората. ChatGPT, например, се подобрява чрез допълнително обучение на базата на разговорите, които хората водят с него", обясняват от OpenAI.

Политиката за поверителност на Google и нейния AI чатбот Bard е сходна. Компанията заявява, че за да помогне за подобряването на своята платформа, като същевременно защитава личните данни на потребителите, "ние избираме подмножество от разговори и използваме автоматизирани инструменти, за да помогнем за премахването на личната информация".

"Тези примерни разговори могат да бъдат прегледани от обучени рецензенти и се съхраняват до 3 години, отделно от вашия профил в Google", посочва компанията и предупреждава: "Не включвайте информация, която може да бъде използвана за идентифициране на вас или на други лица във вашите разговори”.

В коментар на този тип политики, Милс от Boston Consulting Group обяснява пред CNN, че понякога потребителите и разработчиците дори не осъзнават рисковете за неприкосновеността на личния живот, които се крият в подобни технологии, докато не стане твърде късно.

"Моето мнение за това в момента е, че не трябва да поставяте нищо в тези инструменти, за което сте сигурни, че не искате да стига до чужди ръце”, обобщава той пред CNN.