Чат-боти на основі штучного інтелекту можуть впливати на прийняття рішень у пацієнтів із респіраторними та нереспіраторними алергійними захворюваннями
DOI:
https://doi.org/10.30978/TB2025-4-114Ключові слова:
респіраторні та нереспіраторні алергійні захворювання; штучний інтелект; чат-бот.Анотація
Мета роботи — оцінити потенційний вплив відповідей, згенерованих штучним інтелектом, на прийняття рішень і шляхи медичного догляду в пацієнтів із респіраторними та нереспіраторними алергійними станами.
Матеріали та методи. Дванадцять запитань було надано двом із найпоширеніших чат-ботів на основі штучного інтелекту: ChatGPT-4o та Gemini 2.0 Flash. Половина цих запитань була розроблена на основі аналізу даних Google Trends за останній рік в Україні (жовтень 2023 р. — вересень 2024 р.), інша половина була складена на основі онлайн-опитування практикуючих лікарів, які визначили найчастіші запитання, які ставлять пацієнти під час клінічних консультацій. П’ять експертів незалежно оцінювали відповіді кожного чат-бота за трьома параметрами: точність, правильність і вичерпність, використовуючи шкалу від 0 до 3 (0 = повністю неточно/неправильно/невичерпно, 3 = повністю точно/правильно/вичерпно). Пізніше всі теми були розподілені на два блоки: Прийняття рішень і Обізнаності.
Результати та обговорення. Середні оцінки були такими: ChatGPT отримав (2,08 ± 0,46) бала (точність), (2,07 ± 0,52) бала (правильність) і (2,10 ± 0,57) бала (вичерпність), тоді як Gemini — відповідно (1,97 ± 0,71), (2,00 ± 0,69) та (2,05 ± 0,67) бала. Ці результати вказують на незначну загальну перевагу ChatGPT із найбільшою різницею за точністю (0,11). Статистичний аналіз виявив помірну до високої узгодженість між експертами, що загалом є достатнім для підтвердження результатів.
Аналіз показав, що запитання блоку Прийняття рішень були оцінені для ChatGPT з такими показниками: точність — (2,20 ± 0,52) бала, правильність — (2,17 ± 0,50) бала, вичерпність — (2,26 ± 0,48) бала, для Gemini: точність — (2,00 ± 0,58) бала, правильність — (1,91 ± 0,60) бала, вичерпність — (2,06 ± 0,55) бала. Запитання блоку Обізнаності отримали оцінки для ChatGPT: точність — (1,92 ± 0,60) бала, правильність — (1,92 ± 0,58) бала, вичерпність — (1,88 ± 0,62) бала, для Gemini: точність — (1,88 ± 0,65) бала, правильність — (2,12 ± 0,57) бала, вичерпність — (2,04 ± 0,59) бала.
Висновки. Експерти в нашому дослідженні оцінювали відповіді за 4-бальною шкалою (від 0 до 3 балів). Обидва чат-боти в середньому отримали 2 бали з 3 можливих за всіма параметрами (точність, правильність і вичерпність), що є добрим показником. Проте аналіз чітко показав (що помітно за середнім відхиленням), що діапазон оцінок відповідей Gemini був вищим, ніж у ChatGPT, тобто цей чат-бот давав як більш якісні, так і менш якісні відповіді. Це підвищує ймовірність для того, хто запитує, отримати як погану, так і хорошу відповідь, що є показником гіршої передбачуваності чат-бота.
У блоці Прийняття рішень ChatGPT виявився статистично значущо кращим, але в блоці Обізнаності ChatGPT перевершував лише за точністю відповідей, тоді як, за оцінками експертів, Gemini статистично значущо відповідав повніше та правильніше. ChatGPT стабільно перевершував Gemini в блоці Прийняття рішень, що свідчить про його придатність для завдань, які потребують структурованого прийняття рішень. Натомість Gemini перевершував у блоці Обізнаності, особливо за правильністю та вичерпністю, що вказує на його ефективність для інформаційних запитів.
Посилання
Burisch C, Bellary A, Breuckmann F, et al. ChatGPT-4 Performance on german continuing medical education — friend or foe (trick or treat)? Protocol for a randomized controlled trial. JMIR Res Protoc. 2025 Feb 6;14:e63887. http://doi.org/10.2196/63887. PMID: 39913914; PMCID: PMC11843049.
Kanjee Z, Crowe B, Rodman A. Accuracy of a generative artificial intelligence model in a complex diagnostic challenge. JAMA. 2023 Jul 3;330(1):78-80. http://doi.org/10.1001/jama.2023.8288. PMID: 37318797; PMCID: PMC10273128.
Kim TW. Application of artificial intelligence chatbots, including ChatGPT, in education, scholarly work, programming, and content generation and its prospects: a narrative review. J Educ Eval Health Prof. 2023;20:38. http://doi.org/10.3352/jeehp.2023.20.38. Epub 2023 Dec 27. PMID: 38148495; PMCID: PMC11893184.
Liang C. ChatGPT sets record for fastest-growing user base - analyst note. Reuters [Internet]. 2023 Feb 1 [cited 2024 Jul 3]. Available from: https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/.
Liang C. OpenAI’s weekly active users surpass 400 million in 2025. Reuters [Internet]. 2025 Feb 20 [cited 2024 Jul 3]. Available from: https://www.reuters.com/technology/artificial-intelligence/openais-weekly-active-users-surpass-400-million-2025-02-20/.
Tam W, Huynh T, Tang A, Luong S, Khatri Y, Zhou W. Nursing education in the age of artificial intelligence powered Chatbots (AI-Chatbots): Are we ready yet? Nurse Educ Today. 2023 Oct;129:105917. http://doi.org/10.1016/j.nedt.2023.105917. Epub 2023 Jul 18. PMID: 37506622.
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Автори

Ця робота ліцензується відповідно до Creative Commons Attribution-NoDerivatives 4.0 International License.