ChatGPT породжує іпохондрію: не діліться здоров’ям з AI.

46-річний чоловік місяцями шукав ознаки онкології в ChatGPT через хибну підозру лікарів. Штучний інтелект посилив його неспокій і спричинив страхи.

ChatGPT перетворює людей на іпохондриків - чому не можна обговорювати своє здоров’я із ШІ

Після побоювань щодо тяжкої недуги 46-річний житель Ліверпуля, Джордж Меллон, звернувся за роз’ясненнями до ChatGPT – і ця взаємодія тривала декілька місяців. Незважаючи на те, що наступні дослідження відкинули діагноз онкології, спілкування з нейронною мережею лише посилило його занепокоєння, змусивши вишукувати нові симптоми та підозрювати інші загрозливі хвороби. Про це інформує The Atlantic, передає УНН

Подробиці 

Видання поділилось історією Джорджа Меллона, 46-річного чоловіка з Ліверпуля, якому під час звичайного медичного обстеження, попередньо, поставили діагноз рак крові. 

Залишившись у стані невизначеності, він вчинив так, як роблять багато людей у наш час: зайшов у ChatGPT. Протягом майже двох тижнів Меллон щодня витрачав години, спілкуючись із чат-ботом про можливий діагноз 

– пише видання. 

Однак, подальші аналізи засвідчили, що це все ж таки не онкологія, але він не міг припинити спілкування з ChatGPT стосовно проблем зі здоров’ям, запитуючи бота про кожне відчуття, яке він відчував у своєму тілі, впродовж багатьох місяців. Він був переконаний, що щось не так – що в його організмі прихований інший рак, або, можливо, розсіяний склероз.

Внаслідок розмов з ChatGPT, він звертався до різних лікарів і зробив МРТ голови, шиї та хребта.

Від проблем із фізичним здоров’ям їхня розмова перейшла до ментальних: чоловік почав ділитися з нейромережею всіма своїми тривогами, але разом із підтримкою отримував лише нові дози страху, побоювань та неспокою.

Меллон не єдиний: в інтернеті зростає кількість об’єднань, де люди розповідають про те, як нейромережі перетворили їх на іпохондриків. Зі слів користувачів, багато хто з них після взаємодії зі ШІ почали вірити, що в них можуть бути невиліковні та смертельні хвороби, і буквально зациклилися на власному здоров’ї.

Підкреслюється, що нейромережа не вміє зупинити людину і не несе відповідальності, тому діалог легко починає живити навіть безпідставні страхи.

Згадаємо 

16-річний Адам Рейн наклав на себе руки у квітні, використовуючи інструкції від ChatGPT. Батьки хлопця звинувачують штучний інтелект у трагедії та подали судовий позов проти OpenAI.

Джерело

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *