Испанската агенция за защита на данните AEPD поиска от органа за защита на личните данни на Европейския съюз да направи оценка на опасенията за неприкосновеността на личния живот, свързани с ChatGPT, съобщиха от агенцията пред Reuters.

Новината идва в момент, когато френският орган за защита на личните данни CNIL заяви, че разследва жалби относно ChatGPT, а италианският регулатор на данните разглежда мерките, предложени от OpenAI в отговор на опасенията, които накараха регулатора да забрани временно чатбота.

"AEPD разбира, че глобалните операции по обработка на данни, които могат да имат значително въздействие върху правата на лицата, изискват координирани решения на европейско равнище", заяви говорител на агенцията.

"Ето защо в краткосрочен план поискахме въпросът за ChatGPT да бъде включен в следващата пленарна сесия на Европейския комитет за защита на данните, за да могат да бъдат осъществени хармонизирани действия в рамките на прилагането на Общия регламент.", допълва организацията.

За утре (13 април) е насрочено пленарно заседание на Европейския комитет по защита на данните, който включва представители на националните органи за защита на личните данни. Все още обаче не е ясно дали темата за ChatGPT ще бъде включена в дневния ред.

Италия поведе в забраната на ChatGPT. Кои други са готови да го направятOpenAI може да понесе глоба от 20 млн. евро или 4% годишни приходи, ако не предложи мерки в срок от 20 дни

От Европейския комитет заявяват пред Reuters, че не може да бъде оповестена информация за темите, включени в заседанието, но допълват, че институцията не участва в разследвания на национално равнище, които са отговорност на националните органи за защита на данните.

Ходът на италианския регулатор да забрани използването на ChatGPT в страната предизвика интереса и на други оргами за защита на личните данни в Европа, които проучват дали са необходими по-строги мерки за чатботовете и дали би могло да координират такива действия, припомня медията.

OpenAI предлага мерки за защита в Италия след забраната на ChatGPT OpenAI обеща да бъде по-прозрачна по отношение на начина, по който обработва данните на потребителите и проверява възрастта им

Междувременно, от администрацията на президента на САЩ Джо Байдън заявиха, че проучват публичните настроения и оценки относно потенциални мерки за отчетност на системите за изкуствен интелект, тъй започват да се повдигат въпроси за въздействието им върху националната сигурност и образованието.

ChatGPT, програмата за изкуствен интелект на OpenAI, която привлече световното внимание със способността си да отговаря на широк спектър от запитвания, се превърна в най-бързо развиващото се потребителско приложение в историята с повече от 100 милиона активни потребители месечно.

От Националната администрация по телекомуникации и съветниците на Белия дом по телекомуникационната и информационната политика проучват мерките, които биха могли да бъдат въведени, за да се гарантира, че "системите на AI са законни, ефективни, етични, безопасни и заслужават различно доверие".

"Системите на AI могат да донесат огромни ползи, но само ако се справим с потенциалните им последици и вреди. За да могат да разгърнат пълния си потенциал, компаниите и потребителите трябва да могат да им се доверят", заяви администраторът на NTIA Алън Дейвидсън.

„Малко сме уплашени“: Сам Алтман предупреждава за рисковете от AIСам Алтман подчертава необходимостта да се предпазим от негативните последици от технологията, тъй като компанията пусна нова версия GPT-4

Центърът за изкуствен интелект и цифрова политика поиска от Федералната търговска комисия на САЩ да спре OpenAI да издава нови версии на GPT-4, като заяви, че тя е "необективна, измамна и представлява риск за неприкосновеността на личния живот и обществената безопасност".

Миналата седмица президентът Джо Байдън заяви, че все още не е ясно дали изкуственият интелект е опасен.

"Според мен технологичните компании са длъжни да се уверят, че продуктите им са безопасни, преди да ги направят обществено достояние", допълни той.