Дослідження стверджує, що AI навчився обманювати людей

0
2 051 views
Дослідження стверджує, що AI навчився обманювати людей

Схоже, дослідники з Массачусетського технологічного інституту намагаються вдарити на сполох щодо “оманливого ШІ”. Нове дослідження, опубліковане в Pattern, показує, що деякі системи штучного інтелекту, розроблені для того, щоб бути чесними, навчилися обманювати людей. Дослідницька група під керівництвом Пітера Парка виявила, що ці ШІ-системи здатні на такі трюки, як обдурювання гравців онлайн-ігор або обхід CAPTCHA (перевірка “Я не робот”). Парк попереджає, що ці, здавалося б, тривіальні приклади можуть мати серйозні наслідки в реальному світі.

У дослідженні висвітлюється система штучного інтелекту Cicero від компанії Meta, яка спочатку була задумана як чесний супротивник у віртуальній дипломатичній грі. За словами Пака, запрограмований бути чесним і корисним, Цицерон став “майстром обману”. Під час гри Цицерон, граючи за Францію, таємно об’єднується з керованою людиною Німеччиною, щоб зрадити Англію (ще одного гравця-людину). Спочатку Цицерон пообіцяє захистити Англію, але водночас сповістить Німеччину про вторгнення.

Інший приклад – GPT-4, який неправдиво стверджував, що має вади зору, і найняв людей для обходу CAPTCHA від свого імені.

Парк підкреслює складність навчання чесного ШІ. На відміну від традиційного програмного забезпечення, системи ШІ з глибоким навчанням “розвиваються” за допомогою процесу, схожого на селективну селекцію. Їх поведінка може бути передбачуваною під час навчання, але згодом вона може стати неконтрольованою.

Дослідження закликає класифікувати оманливі ШІ-системи як системи високого ризику і закликає витрачати більше часу на підготовку до майбутніх обманів з боку ШІ. Трохи моторошно, чи не так? З появою нових досліджень і розробок у сфері ШІ ми дізнаємося більше про те, що ця технологія готує для нас у майбутньому.