Samsung Electronics забранява на служителите си да използват програми като ChatGPT в работата си, месец след като според съобщенията инженер е качил чувствителна информация в AI чатбот.

„Има нарастващи опасения относно рисковете за сигурността, които генеративния изкуствен интелект носи“, казва Samsung във вътрешна комуникация, цитирана от Bloomberg и Fortune.

Компанията се позовава на случаи на изтичане на данни от служители, споделени с AI чатбот, без да дава подробности. Тя посочва, че използването на такива инструменти може да доведе до „дисциплинарни действия включително до прекратяване на трудовото правоотношение“.

В началото на април южнокорейските медии съобщиха, че Samsung ограничава използването на ChatGPT, след като няколко служители са качили чувствителни данни в услугата.

Появи се информация за служител, който помолил ChatGPT да помогне за коригирането на дефектна база данни, качвайки поверителен код, и за друг, който е споделил цяла среща, за да помоли чатбота бързо да създаде протокол от нея.

Ако програмистите станат кентаври: Ще замени ли AI най-търсените таланти?Какво ще стане, ако в крайна сметка AI поеме всичко, което обичаме в работата си

AI разработчиците могат да използват подкани и друга подадена информация, за да обучават своите модели. Миналата седмица OpenAI съобщи, че ще въведе „режим инкогнито“ за ChatGPT, където потребителите могат да се откажат от използването на техните подкани от разработчика.

Samsung приема, че генеративният AI би могъл да спести значително време на служителите, обещавайки в своята бележка до служителите да създаде свои собствени инструменти за превод и резюмиране на документи, съобщава още Bloomberg.

Съобщава се също така, че компанията обмисля превключване на търсачката по подразбиране, използвана на нейните смартфони, от Google към Bing на Microsoft, след като последната внедри генеративния AI.