ООН: Децата и техните права са най-уязвимата мишена на генеративния AI
Най-значимите вреди от технологията засягат международно договорените права на човека, установява нов доклад на организацията
Нов доклад на ООН предлага специфична гледна точка към проблема за рисковете от генеративния изкуствен интелект.
Публикуван като допълнение към проекта B-Tech за генеративния AI, „Таксономия на рисковете за правата на човека, свързани с генеративния AI“ изследва 10 права, които технологията може да засегне неблагоприятно, пише Fortune.
В документа се казва, че „най-значимите вреди за хората, свързани с генеративния AI, всъщност са въздействия върху международно договорените права на човека“ и се излагат няколко примера за всяко от 10-те права:
• Свобода от физическа и психическа вреда;
• Право на равенство пред закона и на защита от дискриминация;
• Право на неприкосновеност на личния живот;
• Право на собственост;
• Свобода на мисълта, религията, съвестта и мнението;
• Свобода на изразяване и достъп до информация;
• Право на участие в обществени дела;
• Право на труд и препитание
• Права на детето
• Право на култура, изкуство и наука.
Докладът добавя допълнителни нюанси към въпроси като влиянието на генеративния изкуствен интелект върху творческите професии и как той може да се използва за създаване на вредно съдържание – от политическа дезинформация до порнографско съдържание и CSAM (материали за сексуално насилие над деца).
Анализът предоставя над 50 конкретни примера за потенциални нарушения на правата на човека и очертава поразителна картина на това, което е заложено на карта, докато компаниите бързат да разработят, внедрят и комерсиализират технологията.
В доклада също така се твърди, че генеративният AI променя настоящия обхват на съществуващите рискове за правата на човека, свързани с дигиталните технологии (включително по-ранни форми на изкуствен интелект) и има уникални характеристики, които пораждат нови рискове за правата на човека.
Например използването на генеративен изкуствен интелект за въоръжени конфликти и потенциалът за сливане на множество модели на генеративен изкуствен интелект в по-големи еднослойни системи, които биха могли автономно да разпространяват огромни количества дезинформация.
„Други потенциални рискове все още са в начален етап и в бъдеще могат да представляват някои от най-сериозните заплахи за правата на човека“, се казва в доклада.
Един от особено притеснителните рискове, представени от ООН, е свързан с правата на детето:
„Генеративните модели на AI могат да засегнат или ограничат когнитивното или поведенческото развитие на децата, когато има прекомерна зависимост от резултатите на тези модели, например когато децата използват тези инструменти като заместител на обучение.
Тези случаи могат също така да накарат децата несъзнателно да възприемат неправилни или пристрастни разбирания за исторически събития, обществени тенденции и други“.
В доклада се отбелязва, че децата са особено податливи на вреди за правата на човека, свързани с генеративния AI, тъй като са по-малко способни да различават синтетично съдържание от истинско, да идентифицират неточна информация и да разбират, че взаимодействат с машина.
Ето защо трябва да се замислим по-задълбочено за проблема как на малките деца се дава ежедневен достъп до социалните медии без почти никаква прозрачност и как това може да повлияе на тяхното развитие или психическо състояния.
В резултат на политиките на компаниите за социални медии и почти пълната липса на бариери около технологията, децата са ощетени - проблем, който достигна своя връх по-рано тази година, когато изпълнителните директори на Meta, Snapchat, TikTok, X и Discord свидетелстваха пред Конгреса в изслушване за ролята на социалните медии в експлоатацията на деца, както и приноса им за пристрастяването, самоубийствата, хранителните разстройства, нереалистичните стандарти за красота, тормоза и сексуалното насилие.
Както често казват критиците и родителите, децата са „третирани като опитни зайчета“ в платформите за социални медии на големите технологии и ще е срамно такава грешка да се повтори с генеративния изкуствен интелект.
Друг риск, разгледан в доклада на ООН, е този за правото на труд и изкарване на прехрана, в който се изследва как генеративният изкуствен интелект може да промени драстично икономиката, пазарите на труда и ежедневните работни практики, както и въздействието, което може да окаже върху различните групи.
Това включва всичко – от това, че работодателите използват генеративен AI за наблюдение на служителите, до експлоататорския характер на работата по етикетиране на данни, необходима за създаването на големи езикови модели и последиците за правата на работещите, като например факта, че участващите в трудови спорове с работодателите, могат да бъдат изложени на повишен риск да бъдат заменени с инструменти на генеративния изкуствен интелект.
В заключение, докладът стига до извода, че степента на потенциални нарушения на правата на човека завис от собственото ни прилагане на технологията и от това какви бариери – или липсата на такива, поставяме около нея.
Генеративният изкуствен интелект като технология няма как сам да извърши тези над 50 нарушения на правата на човека, а по-скоро това биха могли да извършат хора, действащи безразсъдно в името на приоритет на печалбата и господството на компаниите им, допълват от ООН.