Агентите са най-актуалното нещо в областта на технологиите в момента. Най-големите компании - от Google DeepMind до OpenAI и Anthropic - се надпреварват да разширяват големи езикови модели със способността да изпълняват задачи сами. Известни като агентичен изкуствен интелект на индустриален жаргон, тези системи бързо се превърнаха в новият фокус на Силициевата долина. Всички - от Nvidia до Salesforce - говорят за това как те ще преобърнат индустрията.

„Вярваме, че през 2025 г. може да видим първите агенти с изкуствен интелект да се присъединят към работната сила и да променят съществено резултатите от дейността на компаниите“, твърди Сам Алтман в публикация в блога си миналата седмица.

В най-широк смисъл агентът е софтуерна система, която тръгва и прави нещо, често с минимално или нулево наблюдение. Колкото по-сложно е това нещо, толкова по-интелигентен трябва да бъде агентът. За много хора големите езикови модели вече са достатъчно интелигентни, за да захранват агенти, които могат да изпълняват цял набор от полезни задачи вместо нас - попълване на формуляри, търсене на рецепти и добавяне на съставки в онлайн кошница за хранителни стоки или използване на търсачка за проучване в последния момент преди среща и изготвяне на бързо резюме в точки.

През октомври Anthropic показа един от най-усъвършенстваните агенти досега: разширение на своя голям езиков модел на Claude, наречен Computer Use. Както подсказва името, той позволява на потребителите да насочвате големият езиков модел да използва компютър така, както го прави човек, като движи курсора, щраква върху бутони и пише текст. Вместо просто да разговаряте с Claude, сега можете да го помолите да изпълнява задачи на екрана вместо вас.

Anthropic отбелязва, че функцията все още е тромава и склонна към грешки. Но тя вече е достъпна за избрани тестери, включително разработчици от трети страни в компании като DoorDash, Canva и Asana.

Използването на компютри е бегла представа за това, което предстои да се случи с агентите. За да научи какво предстои, MIT Technology Review разговаря със съоснователя и главен учен на Anthropic Джаред Каплан.

Ето четири начина, по които агентите ще се развият през 2025 г.

1. Агентите ще станат по-добри в използването на инструменти

„Мисля, че има две оси за мислене за това на какво е способен изкуственият интелект. Едната е въпросът за това колко сложна е задачата, която една система може да изпълни. И тъй като AI системите стават все по-умни, те стават все по-добри в тази посока. Но другата посока, която е много важна, е какви среди или инструменти може да използва AI“, казва Каплан.

По думите му, ако се върнем почти 10 години назад до модела на DeepMind за игра на Го - AlphaGo, AI системите бяха свръхчовешки по отношение на това колко добре могат да играят настолни игри. Но ако всичко, с което могат да работят те, е настолна игра, това е много ограничена среда.

„Това всъщност не е полезно, дори и да е много умно. С текстовите модели, след това с мултимодалните, а сега и с използването на компютри, а може би в бъдеще и с роботи, ние се движим към въвеждане на AI в различни ситуации и задачи. По този начин той става полезен“, продължава Каплан. „Бяхме развълнувани от използването на компютри основно по тази причина. Доскоро при големите езикови модели беше необходимо да им се даде много специфична команда, да им се дадат много специфични инструменти, а след това те бяха ограничени до определен вид среда. Смятам, че използването на компютри вероятно ще се подобри бързо по отношение на това колко добре моделите могат да изпълняват различни и по-сложни задачи“.

А също и да осъзнават кога са допуснали грешки или да осъзнават кога има въпрос с висок залог и трябва да поискат обратна връзка от потребителя.

2. Агентите ще разбират контекста

„За да бъде полезен, Claude трябва да научи достатъчно за вашата конкретна ситуация и ограниченията, при които работите. Неща като каква конкретна роля заемате, какви стилове на писане или какви нужди имате вие и вашата организация“, обяснява съоснователят и главен учен на Anthropic.

Според него през 2025 ще видим подобрения в това отношение и начина, по който агентите могат да търсят информация в документи, комуникационни платформи, имейли и т.н. Така те ще започнат да разбират по-добре какво е полезно за конкретния потребител.

„Друго нещо е, че много от задачите няма да изискват от агентите да правят много разсъждения. Не е необходимо да седите и да мислите с часове, преди да отворите Google Docs или нещо друго. И така, мисля, че много от нещата, които ще видим, са не просто повече разсъждения, а прилагане на разсъжденията, когато те са наистина полезни и важни, но не и губене на време, когато не е необходимо“, предвижда Каплан.

3. Агентите ще направят асистентите за кодиране по-добри

„Искахме да предоставим на разработчиците съвсем първоначална бета версия на използването на компютъра, за да получим обратна връзка, докато системата е сравнително примитивна. Но когато тези системи станат по-добри, те могат да бъдат по-широко използвани и наистина да си сътрудничат с вас в различни дейности“, коментира съоснователят и главен учен на Anthropic. „DoorDash, Browser Company и Canva експериментират например с различни видове взаимодействия с браузъри и ги проектират с помощта на AI“.

Неговите очаквания са, че ще видим и по-нататъшни подобрения в асистентите за кодиране - нещо, което вълнува много разработчиците.

„Има огромен интерес към използването на Claude 3.5 за кодиране, където не става въпрос само за автоматично попълване, както беше преди няколко години. Става дума за истинско разбиране на това, което не е наред с кода, отстраняване на грешки - стартиране на кода, осмисляне какво се случва и поправяне“, дава пример той.

4. Агентите ще трябва да бъдат защитени

„Основахме Anthropic, защото очаквахме, че изкуственият интелект ще се развива много бързо и смятахме, че неизбежно проблемите с безопасността ще бъдат актуални. Тази година това ще става все по-осезаемо, защото тези агенти ще стават все по-интегрирани в работата ни. Трябва да сме готови за предизвикателствата“, предупреждава Каплан, визирайки т.нар. „инжектирането на подкана“.

Това е вид кибератака, при която злонамерена подкана се предава на голям езиков модел по начин, който разработчиците му не са предвидили. Един от начините да се направи това е тя да се добави към уебсайтове, които моделите могат да посетят.

„Инжектирането на подкана вероятно е едно от основните неща, за които мислим по отношение на по-широкото използване на агенти. Това е особено важно за използването на компютри и е нещо, върху което работим много активно. Ако използването на компютри от агенти се разгърне в голям мащаб, тогава може да има зловредни уебсайтове, които се опитват да ги убедят да направят нещо, което не трябва да правят“, добавя съоснователят и главен учен на Anthropic.

При по-усъвършенстваните модели рискът е по-голям.