През април тази година родител задава въпрос в частна Facebook група:

"Имате ли опит с държавните училища в Ню Йорк, ако отглеждате едновременно надарено дете и дете с увреждания?"

Той получава на пръв поглед полезен отговор, в който се излагат някои характеристики на конкретно училище, като се започва с контекста, че "имам дете, което е и дветe".

В друга Facebook група за размяна на ненужни вещи, потребител, търсещ конкретни предмети, получава предложение за "леко употребяван" фотоапарат Canon и "почти нов преносим климатик".

И двата отговора всъщност са фалшиви.

Въпросното дете не съществува, както и фотоапаратът и климатикът. Отговорите идват от чатбот с изкуствен интелект.

Според помощните инструкции на Meta, Meta AI ще отговаря на публикация в група, ако някой изрично я маркира или ако "зададе въпрос в публикация и никой не отговори в рамките на един час".

Според страницата функцията все още не е налична във всички групи. За тези, в които е, "администраторите могат да я изключват и включват по всяко време".

Meta AI обаче е интегриран и във функциите за търсене във Facebook и Instagram и потребителите не могат да го изключат.

Идеята за чатботове, които отговарят на въпроси в групите във Facebook може да бъде приета в голяма степен като антиутопична по редица причини, като започнем от факта, че онлайн общностите са за хора, пише Fast Company.

Човешки връзки

През 1993 г. Хауърд Рейнголд публикува книгата "Виртуалната общност": за WELL – ранна и културно значима онлайн общност.

Първата глава започва с родителски въпрос: Какво да правим с "кръвожадно нещо, което смуче скалпа на нашето бебе".

Рейнголд получава отговор от човек, който има преки познания за справяне с кърлежите и е разрешил проблема, преди да получи обратна връзка от педиатричния кабинет.

Той пише: "Това, което ме изуми, беше не само бързината, с която получихме информацията, която трябваше да знаем, точно когато ни трябваше. Беше и огромното вътрешно чувство за сигурност, което идва с откритието, че истински хора – повечето от тях родители, някои от тях медицински сестри, лекари и акушерки, са на разположение денонощно, ако имаш нужда от тях."

Този аспект на "реалните хора" в онлайн общностите продължава да бъде от решаващо значение и днес.

Представете си защо можете да зададете въпрос на група във Facebook, а не на търсачка: защото искате отговор от човек с реален, житейски опит или искате човешки отговор, който въпросът ви може да предизвика - съчувствие, възмущение, съчувствие – или и двете.

Десетилетия наред изследвания показват, че човешкият компонент на онлайн общностите е това, което ги прави толкова ценни както за търсене на информация, така и за социална подкрепа.

Например бащите, които иначе биха се чувствали неудобно да поискат съвет за възпитание, са намерили убежище в частни онлайн пространства, предназначени само за бащи.

Младежите от ЛГБТК+ често се присъединяват към онлайн общности, за да намерят безопасно важни ресурси и същевременно да намалят чувството си за изолация.

Форумите за подкрепа на психичното здраве осигуряват на младите хора принадлежност и утвърждаване в допълнение към съветите и социалната подкрепа.

Две по-нови проучвания, които все още не са рецензирани, подчертават значението на човешките аспекти на търсенето на информация в онлайн общности.

Едното, ръководено от докторантката Блейкли Пейн, се фокусира върху онлайн преживяванията на хората със затлъстяване.

Много от тях намират спасителен пояс в достъпа до аудитория и общност със сходен опит, докато търсят и споделят информация по теми като ориентиране във враждебните здравни системи, намиране на дрехи и справяне с културните предразсъдъци и стереотипи.

Другото, ръководено от докторантката Фей Колиг, установява, че хората, които споделят онлайн съдържание за своите хронични заболявания, са мотивирани от чувството за общност, което идва със споделения опит, както и от хуманните аспекти на свързването с други хора, за да търсят и предоставят подкрепа и информация.

На границата с жестокостта

Най-важните предимства на тези онлайн пространства могат да бъдат драстично подкопани от отговорите, които идват от чатботове вместо от хора. Например отговор на чатбот, който твърди, че говори с житейския си опит от грижите за дете с диабет, предлагайки съчувствие, би бил не само неуместен, но и на границата на жестокостта.

Въпреки това е напълно логично чатботът да предлага именно такива отговори. Големите езикови модели, опростено казано, функционират по-близо до автоматичното попълване, отколкото до търсачките.

За един модел, обучен на милионите и милионите публикации и коментари във Facebook, "автоматично попълненият" отговор на въпрос в общност за подкрепа определено е такъв, който се позовава на личен опит и предлага съпричастност – точно както "автоматично попълненият" отговор в група във Facebook "Не купувай нищо" може да е да предложи на някого употребяван фотоапарат.

Чатботът не може и не трябва да прави всичко

Това не означава, че чатботовете не са полезни. Проблемът е, че в разгара на треската за генеративен изкуствен интелект има тенденция да се приема, че те могат и трябва да правят всичко.

Използването на големи езикови модели като системи за извличане на информация има много недостатъци и те сочат неподходящи контексти за използването им.

Един от тях е, когато неправилната информация може да бъде опасна: например помощ при хранителни разстройства или правни съвети за малки предприятия.

Изследванията сочат важни съображения как и кога да се проектират и внедряват чатботове.

Наскоро публикуван доклад от голяма конференция за взаимодействието човек-компютър установи, че въпреки че ЛГБТ лица, които нямат социална подкрепа, понякога се обръщат към чатботове за помощ и тези чатботове често не успяват да разберат нюансите на специфичните за тези случаи предизвикателства.

В друг случай се установява, че макар група участници с аутизъм да са намерили полза от взаимодействието с чатбот за съвети в областта на социалната комуникация, този чатбот също е давал съмнителни съвети.

Друг пък установява, че макар чатботът да е бил полезен като инструмент за предварителна консултация в здравен контекст, пациентите понякога са намирали изразяването на съпричастност за неискрено или обидно.

Отговорното разработване и внедряване на изкуствен интелект означава не само да се направи одит за проблеми като пристрастност и дезинформация, но и да се отдели време, за да се разбере в какъв контекст AI е подходящ и желан за хората, които ще взаимодействат с него, завършва Fast Company.