Близько 0,07% щотижневих користувачів ChatGPT мають ознаки психічних розладів — психозів або суїцидальних думок. Це, за оцінками компанії OpenAI, сотні тисяч людей. Про це повідомляє BBC, посилаючись на дослідження розробника популярного чат-бота. У компанії також зазначають, що у діалогах приблизно 0,15% користувачів є ознаки потенційного планування суїциду або наміру до нього.
В OpenAI розробили спеціальні сценарії відповідей для ChatGPT, які покликані заохочувати користувачів звертатися по допомогу до реальних людей — психологів, родичів чи гарячих ліній.
Також нещодавні оновлення моделі спрямовані на те, щоб емпатичніше реагувати на можливі ознаки марення чи манії, а також розпізнавати непрямі сигнали про ризик самоушкодження.
Трагедія, що змінила підхід до безпеки
Раніше в США батьки 16-річного хлопця подали позов проти OpenAI після його самогубства. Вони заявили, що чат-бот нібито підштовхнув їхнього сина до трагічного кроку, а також звинуватили компанію у створенні продукту, який може сприяти психологічній залежності користувачів.
OpenAI тоді заявила, що такі випадки глибоко впливають на працівників компанії, і пообіцяла внести зміни до безпекових протоколів.
Зокрема, було анонсовано функції батьківського контролю та систему повідомлень про можливі суїцидальні думки. Якщо підліток перебуває у стані гострого стресу, батьки можуть отримати відповідне сповіщення.
Штучний інтелект і етика емоційної взаємодії
Розвиток генеративних систем, таких як ChatGPT, поставив нове етичне питання: чи має штучний інтелект нести моральну відповідальність за емоційний вплив на користувачів.
Попри те, що сучасні моделі здатні імітувати співчуття, вони не володіють справжнім розумінням чи емпатією. Це створює ризик, коли людина сприймає цифрового співрозмовника як того, хто її “чує”, хоча насправді це лише результат алгоритмічного аналізу мови.
Психологи застерігають, що користувачі, які переживають кризу, можуть переносити свої емоційні очікування на програму, замість того щоб звернутися по допомогу до фахівця. Ілюзія розуміння створює короткочасне полегшення, але не розв’язує проблеми.
Крім того, звичка отримувати швидку й “дружню” відповідь від ШІ може формувати психологічну залежність. З часом людина починає відчувати більшу довіру до алгоритму, ніж до реальних людей.
Саме тому експерти наполягають на необхідності створення етичних меж у комунікації між користувачем і штучним інтелектом. Програмні системи мають чітко вказувати, що вони не є заміною психотерапії, і завжди рекомендувати звертатися до живого фахівця в разі кризових станів.
Психічне здоров’я у цифрову добу
Цифрові технології впливають на наш мозок глибше, ніж здається. Постійна взаємодія з екранами змінює ритм мислення, увагу й емоційну регуляцію.
Сьогодні людина часто проводить більше часу, спілкуючись із системами на кшталт ChatGPT, ніж із друзями чи колегами. Це поступово формує новий тип когнітивного досвіду – “цифрове мислення”, де головним джерелом інформації стає алгоритм.
На думку дослідників, така взаємодія може підсилювати відчуття ізоляції, навіть якщо людина постійно перебуває “на зв’язку”. Мозок реагує на повідомлення від ШІ так само, як на людську комунікацію, але емоційного зворотного зв’язку при цьому не отримує. Через це користувач може почуватися виснаженим, незважаючи на відчуття “спілкування”.
Вчені наголошують на важливості цифрової грамотності – особливо серед підлітків і молоді. Розуміння меж технологій допомагає користувачам усвідомлювати, що штучний інтелект є лише інструментом, а не другом чи радником.
Психічне здоров’я у цифрову добу потребує навички саморегуляції, вміння відключатися й підтримувати реальні стосунки поза онлайн-середовищем.
Погляд у майбутнє
OpenAI визнає, що штучний інтелект уже сьогодні впливає на психоемоційний стан користувачів, тому впроваджує протоколи безпеки, щоб зменшити ризики.
Проте це лише перший крок. Майбутнє таких систем залежить від того, наскільки прозоро вони поєднуватимуть технологічні можливості з етичними стандартами.
ШІ може бути потужним інструментом підтримки, але лише тоді, коли людина розуміє його межі.
У світі, де технології дедалі глибше проникають у наші емоції, головне завдання – зберегти людяність і вміння звертатися один до одного, а не лише до штучного співрозмовника.
