Google може створити ШІ, який думає, як ви, після двогодинної співбесіди

0
505 views
Google може створити ШІ, який думає, як ви, після двогодинної співбесіди

Дослідники Стенфордського університету заплатили 1052 людям 60 доларів за те, щоб вони прочитали перші два рядки “Великого Гетсбі” в додатку. Після цього штучний інтелект, який виглядав як 2D-спрайт з гри Final Fantasy епохи SNES, попросив учасників розповісти історію свого життя. Вчені взяли ці інтерв’ю та створили на їх основі штучний інтелект, який, за їхніми словами, відтворює поведінку учасників з 85% точністю.

Дослідження під назвою “Моделювання генеративних агентів на основі 1,000 людей” є спільним проектом Стенфорда та вчених, які працюють у дослідницькій лабораторії Google DeepMind AI. Ідея полягає в тому, що створення ШІ-агентів на основі випадкових людей може допомогти політикам і бізнесменам краще зрозуміти громадськість. Навіщо проводити фокус-групи чи опитування громадськості, якщо можна поговорити з ними один раз, створити LLM на основі цієї розмови, а потім назавжди мати їхні думки та погляди? Або, принаймні, настільки близьке наближення до цих думок і почуттів, наскільки LLM здатна відтворити.

“Ця робота закладає основу для нових інструментів, які можуть допомогти дослідити індивідуальну та колективну поведінку”, – йдеться в анотації до статті.

“Як, наприклад, різні групи людей можуть реагувати на нову політику і повідомлення в галузі охорони здоров’я, реагувати на запуск нового продукту або на серйозні потрясіння?” У статті продовжується. “Коли змодельовані індивіди об’єднуються в колективи, ці симуляції можуть допомогти в пілотуванні інтервенцій, розробці складних теорій, що охоплюють нюанси причинно-наслідкових і контекстуальних взаємодій, і розширити наше розуміння структур, таких як інститути і мережі, в таких сферах, як економіка, соціологія, організація і політологія”.

Всі ці можливості, засновані на двогодинній співбесіді, були враховані при складанні тесту на ступінь магістра права, який відповідав на запитання, здебільшого подібні до тих, що виникають у реальному житті.

Значна частина процесу була автоматизована. Дослідники уклали контракт з фірмою Bovitz, яка займається маркетинговими дослідженнями, щоб зібрати учасників. Мета полягала в тому, щоб отримати широку вибірку населення США, настільки широку, наскільки це можливо при обмеженні до 1 000 осіб. Для проходження дослідження користувачі реєструвалися в спеціально розробленому інтерфейсі, створювали 2D спрайт-аватар і починали спілкуватися зі штучним інтелектом-інтерв’юером.

Запитання та стиль інтерв’ю є модифікованою версією тих, що використовуються в American Voices Project – спільному проекті Стенфордського та Прінстонського університетів, який опитує людей по всій країні.

Кожне інтерв’ю починалося з того, що учасники читали перші два рядки з “Великого Гетсбі” (“У молоді та вразливі роки мій батько дав мені пораду, яку я з тих пір постійно прокручую в голові. “Щоразу, коли тобі хочеться когось критикувати, – сказав він мені, – просто пам’ятай, що не всі люди в цьому світі мали ті переваги, які мав ти”), щоб відкалібрувати аудіозапис.

Згідно з документом, “Інтерфейс інтерв’ю відображав двомірний спрайт-аватар, що представляв агента-інтерв’юера в центрі, з аватаром учасника внизу, який прямував до стовпчика, що вказував на прогрес. Коли ШІ-агент-інтерв’юер говорив, про це сигналізувала пульсуюча анімація центрального кола з аватаром інтерв’юера”.

За результатами двогодинних інтерв’ю в середньому було створено стенограми обсягом 6 491 слово. У них ставилися питання про расу, стать, політику, дохід, користування соціальними мережами, стрес на роботі та склад сім’ї. Дослідники опублікували сценарій інтерв’ю та запитання, які ставив ШІ.

Ці стенограми, кожна з яких не перевищувала 10 000 слів, були завантажені в іншу LLM, яку дослідники використовували для створення генеративних агентів, призначених для копіювання учасників інтерв’ю. Потім дослідники поставили учасникам і клонам ШІ більше запитань і провели економічні ігри, щоб побачити, як вони порівняються. “Коли агенту ставлять запитання, вся стенограма інтерв’ю вводиться в підказку моделі, даючи їй вказівку імітувати людину на основі даних інтерв’ю”, – йдеться в статті.

Ця частина процесу була максимально наближена до контрольованої. Дослідники використовували Загальне соціальне опитування (GSS) та опитувальник Великої п’ятірки особистості (BFI), щоб перевірити, наскільки добре LLMs відповідають своєму натхненню. Потім вони провели учасників та LLMs через п’ять економічних ігор, щоб побачити, як вони порівняються.

Результати виявилися неоднозначними. Агенти штучного інтелекту відповіли приблизно на 85% запитань так само, як і реальні учасники на GSS. На BFI вони досягли 80%. Однак цифри різко впали, коли агенти почали грати в економічні ігри. Дослідники запропонували реальним учасникам грошові призи для гри в такі ігри, як “Дилема в’язня” та “Гра диктатора”.

У грі “Дилема в’язня” учасники можуть працювати разом, щоб досягти успіху, або ж обдурити партнера, щоб отримати шанс на великий виграш. У грі “Диктатор” учасники повинні вибрати, як розподіляти ресурси між іншими учасниками. Реальні суб’єкти заробили більше грошей, ніж початкові 60 доларів, граючи в ці ігри.

Зіткнувшись з цими економічними іграми, ШІ-клони людей також не відтворювали своїх реальних аналогів. “У середньому генеративні агенти досягли нормалізованої кореляції 0,66”, або близько 60%.

Документ варто прочитати повністю, якщо вам цікаво, як науковці ставляться до ШІ-агентів та громадськості. Дослідникам не знадобилося багато часу, щоб звести людську особистість до ШІ, який поводиться подібним чином. Маючи час і енергію, вони, ймовірно, зможуть зблизити їх.

Це мене непокоїть. Не тому, що я не хочу бачити, як невимовний людський дух зводиться до електронної таблиці, а тому, що я знаю, що цей вид технологій буде використаний у поганих цілях. Ми вже бачили, як дурніші магістри права, навчені на публічних записах, обманом змушували бабусь після короткого телефонного дзвінка віддавати банківську інформацію родичу зі штучним інтелектом. Що станеться, якщо ці машини матимуть сценарій? Що відбувається, коли вони мають доступ до спеціально створених особистостей на основі активності в соціальних мережах та іншої загальнодоступної інформації?

Що відбувається, коли корпорація чи політик вирішує, що громадськість хоче і потребує чогось, ґрунтуючись не на їхньому волевиявленні, а на наближеному до нього?