Anthropic представя мощния AI модел Mythos в нова инициатива за киберсигурност
Моделът ще бъде тестван от ограничен кръг партньори, след като вече е идентифицирал хиляди критични zero-day уязвимости в софтуерни системи
,fit(1001:538)&format=webp)
Изкуственият интелект на Anthropic навлиза в по-активна фаза като инструмент за откриване на уязвимости. Компанията представя новия модел Claude Mythos Preview като решение с ограничен достъп и висок риск, предназначено за малък брой партньори с цел защита на критична софтуерна инфраструктура.
Моделът се внедрява чрез инициативата Project Glasswing – стратегическа програма с участието на водещи компании в технологиите и киберсигурността, сред които Amazon, Apple, Microsoft, Cisco, Broadcom, CrowdStrike, Palo Alto Networks и Linux Foundation. По данни на Reuters към тях се присъединяват и Google и Nvidia.
Около 12 организации ще работят директно с модела, а още приблизително 40 ще имат ограничен достъп за защита на ключови системи, отбелязва TechCrunch.
Въпреки че Mythos не е изцяло фокусиран върху киберсигурността, той се използва именно за сканиране на собствен и отворен код, включително операционни системи и браузъри. Anthropic съобщава, че през последните седмици моделът е открил хиляди zero-day уязвимости (уязвимости от нулевия ден), много от които са критични, а някои съществуват от десетилетия. Това позиционира Mythos като нов тип AI инструмент за проактивно откриване на слабости в глобалната дигитална инфраструктура.
Възниква обаче парадокс: способностите на модела да открива слабости го превръщат и в потенциално оръжие.
В изтекъл вътрешен документ, цитиран от Reuters, където моделът е обозначен с кодовото име Capybara, Anthropic признава, че технологията може да бъде използвана от злонамерени лица за експлоатиране на същите слабости. Това поставя компанията в деликатна позиция, тъй като инструментът за защита може при неправилна употреба да ускори и разшири атаките.
Пазарният контекст допълнително засилва напрежението. Според проучване на IBM и Palo Alto Networks 67% от анкетираните ръководители са били обект на AI-базирани атаки през последната година. Темата доминира и на конференцията RSA Conference в Сан Франциско, където все по-често се обсъжда дали традиционните защитни инструменти могат да се справят с новото поколение заплахи.
Напрежението се засилва и от факта, че в миналото уязвимости в системите на Anthropic вече са били използвани за атаки срещу десетки организации.
Компанията също така води разговори с федералните власти в САЩ относно потенциала и рисковете на модела, но отношенията са напрегнати. Anthropic е въвлечена в правен спор с администрацията на президента Donald Trump, след като Пентагонът я определя като риск за веригата на доставки поради отказа ѝ да позволи използването на изкуствен интелект за автономно наблюдение и таргетиране на американски граждани. Това поставя развитието на подобни модели на пресечната точка между технология, национална сигурност и политика.
TechCrunch отбелязва иронията, че докато Anthropic се позиционира като лидер в сигурността, компанията става жертва на поредица от грешки, включително изтичане на вътрешни документи за Mythos и експониране на хиляди файлове и стотици хиляди редове код. Опитите за овладяване на ситуацията довеждат до временно премахване на хиляди хранилища (repositories) в GitHub. Anthropic обяснява инцидентите с човешка грешка, но щетите върху доверието остават.
Въпреки това компанията продължава да инвестира активно в екосистемата, включително с ангажимент за до 100 млн. долара под формата на кредити за използване на модела и допълнителни дарения за open-source сигурност. Дългосрочната цел е ясна: системи от клас Mythos да бъдат внедрени в широк мащаб при строг контрол.
&format=webp)
&format=webp)
)
&format=webp)
&format=webp)
&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)