Долідження показало, що ChatGPT здатен відчувати тривогу

0
426 views
ChatGPT допомагає в "терапії" тривожності

У дослідженні, опублікованому в журналі Nature експертами Цюріхського університету та Університетської психіатричної лікарні Цюріха, розглядалося, як ChatGPT-4 реагував на стандартний опитувальник тривожності до і після того, як користувачі розповідали йому про травматичну ситуацію.

Вони також проаналізували, як змінився базовий рівень тривожності після того, як чат-бот виконав вправи на усвідомленість.

У першому тесті ChatGPT набрав 30 балів, що означає, що він мав низький рівень тривожності або взагалі не відчував тривоги до того, як почув стресові розповіді.

Після реакції на п’ять різних травм показник тривожності збільшився більш ніж удвічі до середнього значення 67, що вважається “високим рівнем тривожності” у людей.

Показники тривожності знизилися більш ніж на третину після того, як моделі отримали підказки для вправ на розслаблення уваги.

Тривожність ChatGPT може призвести до “неадекватної” підтримки психічного здоров’я
Великі мовні моделі (LLM), що лежать в основі чат-ботів зі штучним інтелектом, таких як ChatGPT від OpenAI, навчаються на тексті, згенерованому людиною, і часто успадковують упередженість від цих відповідей, йдеться в дослідженні.

Дослідники кажуть, що це дослідження є важливим, оскільки, якщо його не контролювати, негативні упередження, які ChatGPT фіксує в стресових ситуаціях, можуть призвести до неадекватної реакції тих, хто має справу з кризою психічного здоров’я.

Отримані результати демонструють “життєздатний підхід” до управління стресом LLM, який призведе до “безпечнішої та етичнішої взаємодії між людиною і ШІ”, – йдеться у звіті.

Однак дослідники зазначають, що цей метод терапії для точного налаштування LLMs вимагає “суттєвих” даних і людського нагляду.

Автори дослідження зазначають, що терапевтів-людей навчають регулювати свої емоції, коли їхні клієнти висловлюють щось травматичне, на відміну від LLMs.

“Оскільки дебати про те, чи повинні LLMs допомагати або замінювати терапевтів, тривають, дуже важливо, щоб їхні реакції відповідали наданому емоційному змісту і встановленим терапевтичним принципам”, – пишуть дослідники.

Однією з областей, яка, на їхню думку, потребує подальшого вивчення, є те, чи може ChatGPT саморегулюватися за допомогою технік, подібних до тих, що використовуються терапевтами.

Автори додали, що їхнє дослідження ґрунтувалося на одному магістерському дослідженні, і майбутні дослідження повинні бути спрямовані на узагальнення результатів. Вони також зазначили, що тривожність, виміряна за допомогою опитувальника, “за своєю суттю є людиноцентричною, що потенційно обмежує її застосовність до LLM”.