Alphabet предупреждава служителите си да внимават как използват чатботове, включително собствения си Bard, докато в същото време продава програмата по целия свят, пише Reuters, позовавайки се на четирима души, запознати с темата.

Компанията майка на Google е посъветвала служителите си да не въвеждат нейни поверителни материали в чатботове с изкуствен интелект, казват източниците на информационната агенция, а от технологичния гигант потвърждават, мотивирайки се с дългогодишна политика за опазване на информацията.

Чатботовете, сред които са Bard и ChatGPT, са програми с човешко поведение, които използват т.нар. генеративен изкуствен интелект, за да водят разговори с потребителите и да отговарят на безброй подкани. Човешките рецензенти могат да четат чатовете, а изследователите са установили, че подобен изкуствен интелект може да възпроизвежда данните, които е усвоил по време на обучението. Това създава риск от изтичане на информация.

ChatGPT – хронология на едно неудобно партньорствоОтношенията между Microsoft и OpenAI често включват неразбирателство и конфликти


Alphabet също така предупреждава инженерите си да избягват директното използване на компютърен код, който чатботовете могат да генерират.

В коментар на информацията от компанията заявяват, че Bard може да създава някои проблеми, „но въпреки това помага на програмистите“, като акцентират, че държат на прозрачността. Това е демонстрация, че Google иска да избегне вреди за бизнеса си от AI софтуера, който стартира в конкуренция с ChatGPT. Залогът в надпреварата ѝ със създателите на ChatGPT – OpenAI и Microsoft Corp, са милиарди долари инвестиции и бъдещи приходи от реклама и облачни услуги, които се очаква да отключат новите програми с изкуствен интелект.

Предпазливостта на Google отразява и това, което се превръща в стандарт за сигурност за корпорациите, а именно да предупреждават персонала си за използването на публично достъпни генеративни AI платформи. Все по-голям брой предприятия поставят предпазни мерки срещу чатботовете с изкуствен интелект, като в списъка попадат Samsung, Amazon.com, Deutsche Bank, Apple и др.

ЕК иска незабавно означаване на съдържание, създадено от изкуствен интелектОзначението трябва да помогне да се проследява разпространението на дезинформация, генерирана от AI


Въпреки че Google е казала на служителите си, които тестват Bard още преди пускането му, да не подават вътрешна информация, към днешна дата технологичният гигант разпространява платформата си на 40 езика в повече от 180 страни. Компанията вече е провела подробни разговори с Комисията за защита на данните на Ирландия, водещ регулатор за дейността ѝ в Европа, но отлага пускането на Bard в ЕС в очакване на повече информация за въздействието на чатбота върху неприкосновеността на личния живот.

Притеснения около чувствителната информация

Подобна технология може да изготвя имейли, документи и дори софтуер, като обещава да ускори значително различни рутинни задачи. В това съдържание обаче може да бъде включена дезинформация, чувствителни данни или дори пасажи от романа "Хари Потър", който е защитен с авторски права.

Някои компании са разработили софтуер за справяне с подобни опасения. Например Cloudflare, която защитава уебсайтовете от кибератаки и предлага облачни услуги, пусна на пазара възможност за предприятията да маркират и ограничават някои данни да се разпространяват навън от собствената им система.

Google и Microsoft също разработват за бизнес клиентите инструменти за видеоконференции, които ще бъдат с по-висока цена, но няма да позволяват изпращане на данни в публични платформи с изкуствен интелект.

От железницата до AI - технологичният напредък плаши хората от векове В първите дни на железницата много хора са я смятали за дело на дявола, с изкуствения интелект ситуацията не е по-различна


"Логично е компаниите да не искат служителите им да използват публични чатботове за работа“, каза Юсуф Мехди, главен маркетинг директор за потребителите на Microsoft. "Компаниите заемат надлежно консервативна позиция по тази тема".

Матю Принс, главен изпълнителен директор на Cloudflare, на свой ред е категоричен, че въвеждането на поверителни въпроси в чатботовете е все едно "да пуснете група докторанти да се ровят във всичките ви лични документи".