Новият фронт, който се разиграва в технологичния свят, този път е между доставчиците на интернет защита и създателите на AI агенти. Преди месец Cloudflare обяви, че по подразбиране ще блокира ботовете за изкуствен интелект в своята мрежа. Днес компанията отправя директно обвинение към Perplexity, че умишлено заобикаля интернет стандартите, за да „обира“ съдържание от уебсайтове.

В детайлен блог пост Cloudflare твърди, че дори при блокирани собствени ботове, Perplexity използва алтернативни практики – включително и някои трети страни, за да достигне до съдържанието.

От своя страна Perplexity мигновено реагира със своя собствена публикация, според която мащабът на подобна практика е „значително по-малък“ от описаното от Cloudflare. По думите на компанията обаче основният проблем идва оттам, че Cloudflare не разбира правилно природата на агентите ѝ: те действат по конкретна заявка от потребителя, а не чрез масово обхождане на интернет.

Perplexity не отрича, че ботовете ѝ заобикалят Robots Exclusion Protocol (robots.txt), но твърди, че това е оправдано. Логиката им е проста: ако даден сайт не би отказал достъп на реален човек, не бива да отказва и на бот, който действа от негово име.

Разликата между агент ботовете и традиционните AI тренинг ботове или търсачки е съществена. Те не събират масово данни за обучение на модели или за индексиране в търсачки. Вместо това действат в реално време – например, ако попитате чатбот за работното време на фризьора си, той ще изпрати бот да провери конкретния сайт и ще върне резултат, без да го съхранява в обща база данни.

За крайния потребител тази разлика е невидима. Не е ясно коя част от отговора е генерирана от обучението на модела, коя идва от индексирани данни и коя – от реално живо обхождане. Но тенденцията е ясна – агентите ще се ползват все повече, като заменят човешкото „сърфиране“.

За да работи базираната на агенти навигация, ботовете трябва да имат същия достъп като хората. Но те не взаимодействат с реклами и съдържание по начина, по който го правят реалните потребители – основен стълб на икономиката на интернет. Представете си, че половината от търсенията в Google се извършват от ботове, които игнорират всички „спонсорирани“ линкове. Реакцията на платформите би била мигновена.

Данните на Imperva сочат, че над половината от уеб активността вече е автоматизирана – дял, който ще нараства с появата на AI-базирани браузъри, като например Comet на Perplexity и ChatGPT Agent. Със сигурност те идват със своите удобства, които са неоспорими – някои потребители, включително автори на подобни анализи, вече използват Comet като основен браузър, делегирайки на асистента му фонови задачи.

А достъпът е новото бойно поле. За медийната индустрия обаче залогът е по-голям. Cloudflare, чрез изпълнителния си директор Матю Принс, вече намекна в X, че блокирането на AI браузъри като Comet е вариант. Това поставя един изключително важен въпрос: Кой има последната дума за достъпа – сайтът или потребителят, изпратил агент от свое име?

Ако виждането на Perplexity надделее, интернет бързо ще се насочи към „мрежа на ботовете“, където много сайтове вероятно ще въведат твърди платени стени, за да компенсират загубата на човешки трафик. Моделът на Cloudflare предвижда точно обратното – селективен достъп за ботове, както и нови платформи и начини за монетизация, включително стартиращи компании като TollBit и ScalePost, както и собствената програма Pay Per Crawl.

Парадоксално, именно Perplexity може да е по-добре позиционирана за тази нова ера. Нейната програма за партньорство с издатели, която споделя рекламни приходи, би могла да се превърне в нещо като „YouTube за агенти“, ако стане достъпна за всеки създател на съдържание.

Едно е ясно – бъдещето принадлежи на агентите. Но въпросът как ще ги възприеме интернет – като равноправни на хората или като „външни посетители“ – тепърва ще определя новата икономика на мрежата.