За да стане един чатбот по-интелигентен и съответно по-полезен за крайния потребител, той има нужда от постоянно усвояване на нови данни. Този процес е известен като „обучение“. Големият проблем в момента е, че масово компаниите за изкуствен интелект никога не искат изрично съгласие от собствениците на данни, преди да изтеглят съдържанието на уебстраниците им и да го добавят към масивите на големите езикови модели (LLM).

Част от тези собственици на данни – създатели на съдържание и притежатели на интелектуална собственост, обаче започват масово да отвръщат на удара. Те използват иновативни софтуерни инструменти, известни в технологичната индустрия като „tarpits“ или дигитални капани. Тяхната цел е директно да отровят базовия модел на чатбота, да влошат качеството на неговите отговори и в крайна сметка да предизвикат отлив на крайни потребители.

Отравянето на AI е процес на умишлено компрометиране на езиковия модел, захранващ даден чатбот, така че той да започне да генерира некоректни, подвеждащи или напълно безумни отговори. Това се постига чрез подвеждане на алгоритъма да абсорбира грешни данни по време на обучението си.

Съществуват различни методи за саботиране на моделите в зависимост от това какъв тип информация обработват те. Например при генераторите на изображения се използва техниката „Nightshading“. Специален софтуер добавя невидим за човешкото око слой от пиксели върху дигиталното изкуство, който обаче е видим за ботовете на технологичните компании. Тези пиксели карат изкуствения интелект да вижда картината в напълно различен стил от реалния, което не позволява на модела да копира истинския почерк на твореца.

Тъй като по-голямата част от съвременните чатботове работят с текст, а не с изображения, инструменти като Nightshade са безполезни срещу нерегламентираното изтегляне на статии и блогове. Именно тук на помощ идват дигиталните капани.

Въпросните дигитални капани софтуерно подвеждат автоматизираните търсачки на технологичните компании да поглъщат безполезна информация. Тъй като моделът след това използва тези фиктивни данни за генериране на текстове, неговите отговори се влошават, което може да откаже потребителите от софтуера.

Съществуват различни софтуерни клопки, които собствениците на сайтове могат да вградят в кода си, като софтуерните архитектури Nepenthes, Iocaine и Quixotic. Когато ботът на някоя AI компания посети уебсайт с такъв код, той бива автоматично пренасочен към страници с генериран безсмислен текст, пълен с невярна информация. Тези страници от своя страна съдържат линкове към следващи подобни страници с отровен текст, без да предлагат изходен линк. По този начин дигиталните капани вкарват ботовете в безкраен лабиринт и безкраен цикъл на изтегляне на неверни данни, от който те не могат да излязат.

Докато големите брандове използват тежка артилерия, обикновените потребители също трябва да бъдат предпазливи, защото всеки техен промпт се превръща в част от масива за обучение на модела. За лична защита не са нужни специализирани софтуерни капани, а просто по-добра дигитална хигиена.

Единият вариант е изричното активиране на опцията в настройките на чатботовете, която забранява данните от разговорите да се използват за бъдещо обучение. Други ефективни методи са използването на прокси сървъри или VPN за скриване на дигиталната идентичност, както и предварителното заличаване на всякаква чувствителна лична или фирмена информация в документите, преди те изобщо да бъдат качени в платформите за анализ.