Ледь не фатальна порада: жінка постраждала від ChatGPT

Жінка ледь не померла після поради, отриманої від ChatGPT

Чат-бот, проаналізувавши фото, не ідентифікував небезпечну токсичну рослину – болиголов

Жінка майже загинула, отримавши хибну консультацію від ChatGPT щодо отруйної рослини. Про це повідомила YouTube-блогерка Крісті у своєму профілі в Instagram, повідомляє «Главком» з посиланням на LADbible.

За словами інфлюенсерки, її товаришка переслала чат-боту світлину рослини, знайденої у дворі, та попросила з’ясувати її назву.

У відповіді ChatGPT запевнив, що зображення нагадує листя моркви, аргументуючи це кількома причинами, зокрема «дрібно розсічене та перистоподібне листя», що є доволі «типовим» для гички моркви.

Коли подруга Крісті прямо запитала, чи є рослина на знімку токсичним болиголовом, її неодноразово запевняли у зворотному.

Після того, як вона додала ще одну фотографію до ChatGPT, чат-бот знову підтвердив, що рослина не є болиголовом, оскільки на ній відсутні гладкі порожнисті стебла з фіолетовими відмітинами, незважаючи на те, що зображення, здавалося б, саме це й демонструвало.

Коли Крісті ввела ту ж світлину в Google Lens, іншу платформу штучного інтелекту, яка дозволяє здійснювати пошук за зображеннями, відповіді миттєво підтвердили, що це дійсно токсична рослина – болиголов.

Згодом її товаришка завантажила ті самі зображення в інше вікно ChatGPT на своєму смартфоні та також одразу отримала сповіщення про токсичність рослини.

«Вона зріла особа, і вона розуміла, що потрібно перевіряти інформацію, отриману від ChatGPT. А якщо ні? Вона б буквально померла, адже протиотрути від цієї рослини не існує», – зазначила Крісті.

Інфлюенсерка дійшла висновку з цієї ситуації, що не варто довіряти ChatGPT та іншим великим мовним моделям, а також будь-якому іншому штучному інтелекту, оскільки це, за її словами, «може призвести до серйозних наслідків».

Також видання LADbible звернулося до ChatGPT для отримання коментаря.

Нагадаємо, компанія OpenAI внесла корективи до своїх Правил використання з метою зробити роботу ChatGPT та інших інструментів штучного інтелекту більш надійною та відповідальною. Відповідно до нових правил, ChatGPT більше не буде надавати персоналізовані рекомендації в медичній чи юридичній сферах, навіть за запитом користувачів. Натомість система надаватиме лише загальну інформацію довідкового характеру та направлятиме до відповідних спеціалістів – лікарів, юристів чи консультантів.

Як було повідомлено, згідно з новим аналізом від фірми Apptopia, що спеціалізується на аналізі мобільних додатків, розвиток мобільного додатку ChatGPT, ймовірно, досяг піку. Аналіз глобальних показників завантажень та щоденної активності користувачів (DAU) вказує на уповільнення темпів появи нових користувачів після квітня 2025 року. 

Источник

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *