През април потребител на Reddit разказва как пет години е живял с болки в челюстта – последствие от травма при боксов мач. Налага му се да премине през специалисти, MRI скенери, множество професионални мнения, но решение за проблема му, изглежда, няма.

Тогава потребителят решава да зададе казуса си на ChatGPT.

Изкуственият интелект предлага конкретна хипотеза за проблем с наместването на челюстта и дори описва техника, свързана с позиционирането на езика. Пациентът опитва – и проблемът му изведнъж е решен…

„След пет години живот с това, AI ми даде решение за минута“, споделя той в Reddit, цитиран от WIRED.

Историята бързо обикаля мрежата и дори съоснователят на LinkedIn, Рийд Хофман, я споделя в X. И това не е единичен случай – социалните мрежи преливат от разкази за пациенти, които получават точни оценки на MRI скенери и рентгенови снимки от големи езикови модели.

Един от най-впечатляващите случаи е този на Кортни Хофман, чийто син страда от рядко неврологично състояние. След 17 посещения при лекари за три години и все така без диагноза, тя зарежда всичките му изследвания и бележки в ChatGPT.

Моделът ѝ посочва синдром на фиксиран гръбначен мозък – диагноза, която до момента не е открита от нито един медицински специалист. Шест седмици по-късно детето преминава през операция и „вече живее нов живот“, разказва тя в подкаст на New England Journal of Medicine.

Добре дошли в ерата на д-р ChatGPT

Някога пациентите търсеха симптомите си в Google, но днес „д-р Google“ бързо отстъпва пред „д-р ChatGPT“. Лекарски колегии, университети и самите разработчици на AI модели се надпреварват да оценят доколко надеждни са тези нови „диагностици“, как могат да се използват безопасно и къде се крият рисковете.

„Уверен съм, че това ще подобри здравеопазването“, казва д-р Адам Родман от Харвард, лекар и преподавател. Според него LLM-и, свързани с медицинските досиета на пациентите, могат да революционизират взаимодействието между пациенти и лекари. В болничната практика вече вижда как пациенти използват AI: „Една жена, на която ѝ се налагаше да чака твърде дълго, качи снимка от досието си в ChatGPT. Отговорът беше абсолютно правилен – ставаше въпрос за заболяване на кръвта.“

Родман, който е начело на групата, интегрираща генеративния AI в учебната програма на Harvard Medical School, гледа на това като на възможност, а не на заплаха: „Виждам го като шанс да разговарям с пациента за това, което го тревожи.“

Но тук думата „потенциал“ все още е ключова. Въпреки че някои изследвания показват висока точност на AI в поставянето на диагнози, резултатите рязко падат, особено когато потребителите – пациенти или други медицински лица – не подават пълна или правилна информация.

В проучване на Харвард група от лекари получава набор от случаи и прави диагнози с и без помощта на изкуствен интелект. Двете групи се представят по сходен начин (76% срещу 74%). Но когато на AI му се налага самостоятелно да диагностицира пациенти – резултатът скача до 92%. Причината е, че хората често отхвърлят отговора, когато той противоречи на личното им мнение.

„Обожават, когато се съгласява с тях, но не му вярват, когато не се съгласява с тях“, обяснява Родман.

В друго мащабно проучване, проведено с над 1200 участници, AI постига успеваемост от 95% в поставянето на правилната диагноза. Когато обаче хората използват същия инструмент, но за да ги „насочва“, точният отговор пада едва до 33%.

Проблемът не идва само от алгоритъма, а от зададения контекст. Един случай описва внезапно главоболие и схващане в областта на врата – потенциално опасни симптоми, които се свързват с менингит. Ако не бъде споменато, че симптомите са се проявили внезапно, AI дава съвет да се вземе обезболяващо и да се легне в тъмна стая.

AI не просто греши – той уверено го прави. Докато Google изкарва списък с линкове, езиковите модели като ChatGPT пишат в добре структуриран текст, който звучи като истина. „Това го прави да изглежда по-авторитетно“, казва д-р Алан Фостър от McGill University. Но тази увереност може да е подвеждаща.

Специалистката по фертилитет д-р Джейми Кнопман разказва, че пациенти идват при нея с препоръки от AI, които звучат логично – но не отчитат важни фактори. При ин витро, например, ChatGPT може да даде съвет единствено на база резултатите от ембрионен тест, без да вземе предвид състоянието на маточната лигавица или историята на предишни имплантации.

„Има наука, която се учи. Но има и изкуство в това кой протокол ще проработи точно при този пациент“, казва тя.

Компаниите, които се занимават с AI разработка, вече отговарят на предизвикателството. През май OpenAI обяви системата HealthBench – метод за оценка на медицинските отговори на ChatGPT, разработен съвместно с над 260 лекари от над 60 държави. Компанията твърди, че най-новата ѝ версия – GPT-4.1 – се представя поне толкова добре, колкото и експертите в симулирани медицински казуси.

Microsoft от своя страна представя MAI Diagnostic Orchestrator (MAI-DxO) – AI система, която в тестови условия диагностицира пациенти четири пъти по-точно от хората. Тя използва комбинация от различни LLM-и – от GPT до Grok – наподобявайки консилиум от експерти.

„Какъв лекар е онзи, който не използва мощността на този инструмент?“ – пита риторично д-р Бърнард Чанг, декан по медицинско образование в Harvard Medical School.

Университетът вече въвежда задължителни курсове за работа с AI в обучението на бъдещите лекари. И по негово мнение паралелът тук е ясен: „Преди 20 години хората се присмиваха на ‘д-р Google’, но днес – всеки лекар го ползва. Сега сме на прага на следващото поколение.“