Големите болнични системи в САЩ се превръщат в опитно поле за масовото внедряване на AI - тестват какво може технологията, но и разкриват, понякога чрез тревожни грешки, къде тя се проваля.

Според скорошно проучване на Menlo Ventures и Morning Consult 27% от здравните системи плащат за търговски AI лицензи – три пъти повече от средното за цялата американска икономика.

На фона на застаряващото население и нарастващите нужди от медицинска помощ, болниците търсят начини да се справят с хроничния недостиг на кадри, който води до прегаряне сред медицинските специалисти и забавяне на лечението. Те търсят ефективност навсякъде, където е възможно – особено в момент, когато се задават съкращения в Medicaid.

AI пробива особено силно в някои от най-малко бляскавите, но най-трудоемки ежедневни задачи в болниците: водене на бележки, приемане на обаждания от пациенти, обработка на застрахователни претенции.

Тези дейности често са „изключително зависими от човешкия труд и включват едни и същи рутинни процеси, повтаряни хиляди пъти“, казва пред The Wall Street Journal Рупал Малани, старши партньор в консултантската компания McKinsey, която съветва болници по внедряването на AI.

Лекарите продължават да вземат медицинските решения, макар AI да подпомага процеса. Проучване на Калифорнийския университет в Лос Анджелис от миналата година например установява, че AI разпознава по-добре фини признаци на рак на гърдата, които могат да се развиват незабелязано между рутинните прегледи. Според изследването използването на AI при скрининг може да намали такива случаи с 30%.

Проучване от октомври, публикувано в списание The Lancet Gastroenterology & Hepatology установи, че лекари, използвали AI в продължение на три месеца, за да откриват образувания по време на колоноскопии, започнали да откриват значително по-малко такива, след като инструментът бил отнет.

„Доверявай се, но проверявай“

Кардиологът от Mayo Clinic Пол Фридман се обърнал към ChatGPT, когато трябвало да се произнесе по случай на пациент, който се нуждаел от имплантиране на дефибрилатор само дни след сърдечна операция. Фридман смятал процедурата за възможна и безопасна, но искал да провери дали има публикувани клинични случаи. ChatGPT му предоставил препратки към няколко статии в медицински списания, които твърдели, че процедурата е „безопасна и ефективна“. „Изглеждаше напълно достоверно“, казва пред WSJ Фридман, но негов колега не опитал да намери проучванията и установил, че те са напълно измислени.

След този случай Фридман възприел подхода „доверявай се, но проверявай“. „Не че не задавам медицински въпроси на ChatGPT, но когато го правя, винаги проверявам източниците, отварям ги и поне прочитам резюметата“, казва той.

Кардиологичното отделение на болницата тества алтернативни вътрешни AI инструменти.

По тази тема от OpenAI казват, че екипите на компанията провеждат „постоянни оценки за ограничаване на вредни или подвеждащи отговори“ и че най-новите модели предоставят значително по-точна здравна информация от по-старите версии. ChatGPT не е създаден като заместител на професионалната медицинска консултация, допълват от компанията.

AI само като второ мнение

„Постоянно се тревожа от загуба на умения“, казва Антъни Кардио̀ло, патолог от Ню Йорк, който ръководи лаборатория, специализирана в кръвни проби. „Всеки път, когато възлагам мисленето си на нещо, което не е собственият ми мозък, се страхувам, че ще загубя тази ‘мускулна памет’.“

Кардио̀ло добавя пред WSJ, че той и колегите му използват генеративен AI за преглед на проби, но само като второ мнение - след като вече са стигнали до собствена диагноза.

В Джорджия семейният лекар Дийн Сийхюсън използва генеративен AI, за да проверява актуалните стандарти на лечение, особено при по-редки случаи. Инструментът, който използва, черпи информация само от проверени медицински източници, затова той се чувства относително уверен, като проверява референциите в около 25% от случаите.

Въпреки това той има резерви към цялостния ефект на AI върху медицината. „Най-големият ми страх е, че това ще подкопае общественото доверие в медицината и ще доведе до нещо като ‘Див запад’ за пациентите“, казва той, допълвайки, че все по-често среща пациенти, които сами си поставят диагнози, направени с помощта на AI – включително погрешни.

Въпреки тези опасения потенциалът – и необходимостта – са огромни

„Когато се замислиш за цунамито от нужди, което ни очаква като общество, технологиите са един от малкото лостове, с които разполагаме“, казва Дъг Кинг, главен директор „Дигитални технологии и иновации“ в Northwestern Medicine.

Там AI анализ на един милион сканирания за година е откроил 70 случая, които хората не били отбелязали за допълнителна проверка. Ръчна ревизия установила пет случая, при които лекарите преценили, че е необходимо допълнително проследяване. Болницата използва и AI инструмент за по-ефективно планиране на операционните зали, което позволява лечение на повече пациенти.

Американските болници са сред ранните потребители на AI – много преди масовото изграждане на центрове за данни в САЩ. Прогностични алгоритми от години се използват за ранно откриване на сепсис, идентифициране на рискови пациенти и оптимизиране на графици.

В Северна Калифорния 21-те болници на Kaiser Permanente използват система, която анализира жизнените показатели и досиетата на всички пациенти и ги оценява на всеки час според риска. Проучване в New England Journal of Medicine установява, че системата спасява над 500 живота годишно.

Болниците масово внедряват AI за по-малко зрелищни, но изключително времеемки задачи. През 2024 г. доставчикът на електронни здравни досиета Epic Systems пусна инструмент, който използва генеративен AI, за да анализира пациентски досиета и да изготвя жалби срещу откази от застрахователи. Около 1000 болници вече използват системата, като служители отделят с над 20% по-малко време за обработка на всеки отказ.

След подобна инициатива в болницата Mount Sinai в Ню Йорк обаче използването на AI инструмент на Epic е спряно за автоматично изготвяне на отговори към пациенти, тъй като лекарите установили, че текстовете изискват твърде много редакция.

Имало и конкретни гафове – в един случай системата отказала помощ на пациент, поискал проходилка, а в друг пациент с главоболие получил дълъг отговор, включващ всичко от незначителен проблем до мозъчен тумор.

От Epic казват, че малък брой болници са спрели функцията и че тя се усъвършенства, но подчертават, че инструментът изисква човешки контрол.