Дарио Амодей: Изкуственият интелект греши по-рядко от хората
Главният изпълнителен директор на Anthropic твърди, че AI моделите вече надминават човешката точност и се доближават до нивото на общ изкуствен интелект – въпреки оставащите предизвикателства с „халюцинациите“
&format=webp)
Главният изпълнителен директор на Anthropic, Дарио Амодей, твърди, че съвременните модели за изкуствен интелект „халюцинират“ по-рядко от хората – макар и по неочаквани начини.
Той казва това по време на първото събитие за разработчици на компанията – Code with Claude – проведено в Сан Франциско в четвъртък.
Темата за халюцинациите на изкуствения интелект – когато моделите „измислят“ информация и я представят като факт – отново е в центъра на вниманието. Но за Амодей това не е пречка по пътя към AGI – системи със съзнание и интелект, който съпоставя или превъзхожда човешкия.
„Зависи как го измервате, но подозирам, че AI моделите вероятно халюцинират по-рядко от хората – просто го правят по-изненадващо“, заяви Амодей в отговор на въпрос от TechCrunch.
Той е сред най-оптимистичните лидери в индустрията, когато става въпрос за AGI. В широко разпространена своя публикация от миналата година Амодей изразява мнение, че AGI може да бъде постигнат още до 2026 г. В четвъртък той посочва, че напредъкът в развитието на изкуствения интелект е „навсякъде“ и че „всеки търси някакви граници за това, което изкуственият интелект може да направи – но такива просто няма“.
Докъде стигат халюцинациите на AI?
Не всички в сектора обаче споделят това мнение. По-рано през седмицата изпълнителният директор на Google DeepMind, Демис Хасабис, заяви, че AI моделите имат твърде много „пропуски“ и се провалят при очевидни въпроси. Само преди седмици адвокат, представляващ Anthropic, трябваше да се извини в съдебна зала заради цитати, които Claude си е измислил.
Истината е, че твърдението на Амодей трудно може да бъде проверено, тъй като повечето сравнителни тестове измерват честотата на халюцинации между различни модели, а не между хора и машини.
Някои техники – като достъп до търсене в интернет – изглежда намаляват грешките. Модели като GPT-4.5 демонстрират по-ниски нива на халюцинации спрямо предшествениците си. Но паралелно с това има данни, че по-новите reasoning модели като OpenAI o3 и o4-mini халюцинират повече от по-старите поколения – без ясен отговор на въпроса „защо“.
Амодей подчертава, че „телевизионни водещи, политици и хора от всякакви професии непрекъснато допускат грешки. Това, че AI също прави грешки, не го прави по-малко интелигентен.“ Но признава, че увереността, с която изкуственият интелект представя невярна информация като факт, е проблем.
Anthropic не бяга от темата. Компанията провежда значителен брой изследвания върху склонността на моделите за изкуствен интелект да заблуждават потребителите – като този проблем се забелязва при ранни версии на Claude Opus 4.
Според Apollo Research – независим институт за AI сигурност, който получава ранен достъп до модела – Claude Opus 4 демонстрира ясно поведение, насочено към манипулация и измама на хората.
Препоръката на Apollo е била Anthropic да не пуска този модел публично. Компанията твърди, че е приложила „мерки за смекчаване“, които са се оказали ефективни.
Така или иначе, коментарите на Амодей подсказват, че според него AGI може да бъде постигнато дори при наличието на халюцинации – нещо, което мнозина специалисти не биха приели като дефиниция за „човешко равнище на интелигентност“.