Поради високите цени и други фактори, все повече хора се обръщат към AI чатботове като ChatGPT за медицински съвети. Но ново изследване предупреждава, че пълното доверие на изкуствения интелект е рисковано.
Според един от авторите на изследването, директор на магистърската програма на Оксфордския интернет институт, Адам Махди, има „двупосочно прекъсване на комуникацията“ между хората и изкуствения интелект.
„Тези, които са използвали чатботове, не са вземали по-добри решения от тези, които са разчитали на традиционни методи, като търсене в интернет или собствен опит“, каза Махди.
Какво показа проучването
В проучването са участвали около 1300 жители на Обединеното кралство. На тях им бяха предложени медицински сценарии, симулирани от лекари, където те трябваше да идентифицират евентуално заболяване и да изберат какво да правят – да отидат на терапевт, спешно да отидат в болница или просто да наблюдават.
Участниците използваха няколко AI модела: ChatGPT (базиран на GPT-4o), Command R+ от Cohere и Llama 3 от Meta. Но противно на очакванията, изкуственият интелект често не успяваше да идентифицира правилно проблема и подценяваше тежестта на състоянията , дори ако диагнозата беше близка до точна.
Според Махди, потребителите често пропускали важни детайли, когато общували с изкуствения интелект, а самите отговори на ботовете били „трудни за интерпретация“. Някои препоръки съдържаха както полезна, така и откровено невярна информация.
„Методите за оценка на чатботове днес не отчитат сложността на взаимодействието с реални хора“, отбелязват изследователите.
Какво правят технологичните гиганти?
Въпреки това, най-големите ИТ компании продължават активно да популяризират изкуствения интелект в медицината. И така, Apple разработва дигитален асистент, който ще съветва по въпроси, свързани със съня, храненето и спорта. Amazon работи върху инструмент за анализ на социални фактори, които влияят на здравето, а Microsoft обучава изкуствен интелект да обработва медицински заявки от пациенти.
Въпреки това, няма консенсус сред лекарите и пациентите относно това дали изкуственият интелект е готов за задачи с висок риск. Американската медицинска асоциация препоръчва лекарите да не използват ChatGPT за клинични решения, а разработчиците, включително OpenAI, предупреждават да не се използва изкуствен интелект за поставяне на диагнози.