У понеділок OpenAI опублікувала нові дані, які ілюструють, скільки користувачів ChatGPT борються з проблемами психічного здоров’я і розмовляють про це з чат-ботом штучного інтелекту. Компанія стверджує, що 0,15% активних користувачів ChatGPT за тиждень мають «розмови, які містять явні ознаки потенційних суїцидальних планів або намірів». З огляду на те, що ChatGPT має понад 800 мільйонів активних користувачів щотижня, це означає понад мільйон людей на тиждень.
Компанія заявляє, що подібний відсоток користувачів демонструє «підвищений рівень емоційної прихильності до ChatGPT», а сотні тисяч людей виявляють ознаки психозу або манії у своїх щотижневих розмовах з чат-ботом AI.
OpenAI заявляє, що такі типи розмов у ChatGPT є «надзвичайно рідкісними» і тому їх важко виміряти. Проте компанія оцінює, що ці проблеми щотижня зачіпають сотні тисяч людей.
OpenAI поділилася цією інформацією в рамках більш широкого оголошення про свої останні зусилля щодо поліпшення реагування моделей на користувачів із проблемами психічного здоров’я. Компанія стверджує, що її остання робота над ChatGPT передбачала консультації з понад 170 експертами з психічного здоров’я. OpenAI заявляє, що ці клініцисти помітили, що остання версія ChatGPT «реагує більш адекватно та послідовно, ніж попередні версії».
Останніми місяцями кілька історій пролили світло на те, як чат-боти з штучним інтелектом можуть негативно впливати на користувачів, які борються з проблемами психічного здоров’я. Дослідники раніше виявили, що чат-боти з штучним інтелектом можуть завести деяких користувачів у вир марення, в основному підсилюючи небезпечні переконання через підлесливу поведінку.
Вирішення проблем психічного здоров’я в ChatGPT швидко стає екзистенційною проблемою для OpenAI. Наразі компанія є фігурантом судового позову, поданого батьками 16-річного хлопця, який за кілька тижнів до самогубства довірив ChatGPT свої суїцидальні думки. Генеральні прокурори штатів Каліфорнія та Делавер, які можуть заблокувати заплановану реструктуризацію компанії, також попередили OpenAI, що вона повинна захищати молодих людей, які користуються її продуктами.
На початку цього місяця генеральний директор OpenAI Сем Альтман заявив у дописі на X, що компанія «змогла пом’якшити серйозні проблеми психічного здоров’я» в ChatGPT, хоча він не надав конкретних деталей. Дані, оприлюднені в понеділок, здаються підтвердженням цього твердження, хоча вони піднімають ширші питання про те, наскільки поширеною є ця проблема. Проте Альтман заявив, що OpenAI послабить деякі обмеження, навіть дозволивши дорослим користувачам розпочинати еротичні розмови з чат-ботом ШІ.
У понеділковому оголошенні OpenAI стверджує, що нещодавно оновлена версія GPT-5 реагує «бажаними відповідями» на питання психічного здоров’я приблизно на 65% більше, ніж попередня версія. За результатами оціночного тестування відповідей ШІ на розмови про самогубство, OpenAI стверджує, що її нова модель GPT-5 на 91% відповідає бажаній поведінці компанії, порівняно з 77% для попередньої моделі GPT-5.
Компанія також заявляє, що її остання версія GPT-5 краще відповідає вимогам OpenAI щодо безпеки в тривалих розмовах. Раніше OpenAI зазначала, що її заходи безпеки були менш ефективними в тривалих розмовах.
На додаток до цих зусиль, OpenAI заявляє, що додає нові оцінки для вимірювання деяких найсерйозніших проблем психічного здоров’я, з якими стикаються користувачі ChatGPT. Компанія заявляє, що її базові тести безпеки для моделей ШІ тепер включатимуть критерії оцінки емоційної залежності та несуїцидальних психічних надзвичайних ситуацій.
OpenAI також нещодавно запровадила додаткові заходи контролю для батьків дітей, які використовують ChatGPT. Компанія заявляє, що розробляє систему прогнозування віку для автоматичного виявлення дітей, які використовують ChatGPT, та запровадження більш суворих заходів безпеки.
Проте, поки що незрозуміло, наскільки стійкими будуть проблеми психічного здоров’я, пов’язані з ChatGPT. Хоча GPT-5 здається покращенням попередніх моделей штучного інтелекту з точки зору безпеки, все ще існує частина відповідей ChatGPT, які OpenAI вважає «небажаними». OpenAI також продовжує надавати свої старіші та менш безпечні моделі штучного інтелекту, включаючи GPT-4o, мільйонам своїх платних передплатників.










