Оксфордський аналіз виявив ризики в застосуванні штучного інтелекту для лікарських консультацій.

Робота Оксфордського університету продемонструвала, що чат-боти з інтелектуальним потенціалом надають неточні та непослідовні медичні поради. Це провокує ризик для захищеності хворих через некоректне тлумачення часткової інформації.

Оксфордське дослідження попередило про небезпеку використання ШІ для медичних порад

Вчені Оксфордського університету з’ясували, що чат-боти на базі інтелектуального потенціалу надають неточні та суперечливі поради щодо здоров’я, що загрожують безпеці пацієнтів. Робота наголошує, що неможливість моделей правильно розшифровувати неповні відомості від користувачів робить самодіагностику за допомогою ШІ вкрай ризикованою. Про це інформує УНН.

Деталі

Експеримент за участі 1300 людей засвідчив, що підсумки взаємодії з ШІ критично залежать від формулювання питань. Користувачам рекомендували оцінити симптоми, такі як сильний цефалгія або виснаження, проте чат-боти часто видавали перелік діагнозів, з-поміж яких людині доводилося вибирати навмання. Доктор Адам Махді, головний автор дослідження, відмітив у коментарі для BBC: “Коли інтелектуальний потенціал перерахував три можливі стани, людям лишали здогадуватися, який з них може підійти. Саме тоді все і розвалюється”.

Провідний лікар дослідження доктор Ребекка Пейн назвала практику консультування з ШІ “небезпечною”. Вона пояснила, що користувачі зазвичай діляться відомостями поступово і можуть пропускати ключові деталі, які кваліфікований медик виявив би під час очного огляду. Як результат люди, які використовували ШІ, отримували мікс корисних і шкідливих порад, що ускладнювало прийняття рішення про необхідність відвідування сімейного лікаря або термінової допомоги.

Упередженість алгоритмів та перспективи галузі

Крім технічних похибок, фахівці вказують на системні недоліки технології. Докторка Ембер В. Чайлдс із Єльського університету підкреслила, що ШІ навчається на медичних даних, які вже містять десятирічні упередження.

Чат-бот є настільки ж вдалим діагностом, наскільки вдалими є досвідчені клініцисти, що також не бездоганно

– додала вона.

Це утворює додатковий ризик повторення помилок, закладених у сучасну медичну практику.

Незважаючи на критику, експерти бачать потенціал у спеціалізованих моделях. Доктор Берталан Меско зауважив, що нові версії чат-ботів від OpenAI та Anthropic, розроблені саме для галузі охорони здоров’я, можуть продемонструвати кращі результати. Проте основною умовою безпеки залишається впровадження чітких національних правил, регуляторних бар’єрів та офіційних медичних рекомендацій для удосконалення таких систем.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *