Милиони хора вече търсят медицински съвети от чатботове, което провокира технологичните гиганти да създадат специализирани програми за здраве. През януари OpenAI представи ChatGPT Health – нова версия, способна да анализира медицински досиета, данни от уелнес приложения и смарт устройства. Конкурентната компания Anthropic също предлага подобни функции чрез своя бот Claude.
Разработчиците подчертават, че тези големи езикови модели не са заместител на професионалната помощ и не трябва да се използват за диагностика. Тяхната роля е да обобщават сложни резултати от изследвания, да помагат при подготовката за посещение при лекар или да откриват тенденции в показателите на пациента.
Експерти като д-р Робърт Уоктър от Калифорнийския университет в Сан Франциско смятат, че AI платформите са сериозно подобрение спрямо стандартното търсене в Google. Макар софтуерът понякога да „халюцинира“ или да дава грешни съвети, предоставената информация е много по-персонализирана, тъй като отчита фактори като възраст, история на заболяванията и приемани медикаменти.
Въпреки технологичния напредък, лекарите са категорични: при спешни симптоми като болка в гърдите, задух или силно главоболие, трябва незабавно да се потърси спешна помощ, а не съвет от чатбот. Д-р Лойд Майнър, декан на медицинския факултет в Станфорд, съветва потребителите да подхождат със здравословен скептицизъм и никога да не вземат важни решения за здравето си единствено на базата на AI.
Критичен въпрос остава поверителността на информацията. Данните, споделени с чатботове, не са защитени от федералния закон HIPAA, който регулира медицинската тайна в САЩ. Това означава, че компаниите за изкуствен интелект не подлежат на същите санкции и затвори при изтичане на информация, каквито важат за лекарите и болниците. От OpenAI и Anthropic обаче уверяват, че здравните данни се съхраняват отделно и не се използват за обучение на моделите им.
Независими тестове на Оксфордския университет от 2024 г. показват, че макар изкуственият интелект да решава успешно теоретични медицински изпити, той често се проваля в реална комуникация с хора. Проблемът обикновено е в това, че потребителите не предоставят пълна информация или не могат да разграничат правилните от грешните съвети в отговорите на бота. Специалистите препоръчват като застраховка да се търси „второ мнение“ от различен модел, например Gemini на Google, за по-голяма сигурност в резултата.
Все още няма коментари. Бъдете първи!