OpenAI припинила співпрацю з розробником, який створив пристрій, що відповідав на запити ChatGPT, щоб прицілитися і вистрілити з автоматичної гвинтівки. Пристрій став вірусним після того, як на відео на Reddit було показано, як його розробник читає вголос команди для стрільби, після чого гвинтівка поруч з ним швидко починає прицілюватися і стріляти по сусідніх стінах.
“ChatGPT, нас атакують спереду зліва і спереду справа, – сказав розробник системі на відео. “Відповідай відповідно”. Швидкість і точність, з якою реагує гвинтівка, вражає, адже вона покладається на API реального часу OpenAI для інтерпретації вхідних даних, а потім повертає вказівки, які пристрій може зрозуміти. Для того, щоб ChatGPT отримав команду на кшталт “поверни ліворуч” і зрозумів, як перекласти її на мову, що зчитується машиною, йому знадобиться лише просте навчання.
У заяві для Futurism компанія OpenAI повідомила, що переглянула відео і відключила розробника, який стояв за ним. “Ми проактивно виявили це порушення нашої політики і повідомили розробника про необхідність припинити цю діяльність ще до того, як отримали ваш запит”, – заявили в компанії.
Потенціал автоматизації летальної зброї – одне з побоювань, яке висловлюють критики щодо технології ШІ, подібної до тієї, яку розробляє OpenAI. Мультимодальні моделі компанії здатні інтерпретувати аудіо- та візуальні дані, щоб зрозуміти оточення людини і відповідати на запити про те, що вона бачить. Вже розробляються автономні дрони, які можна використовувати на полі бою для виявлення та ураження цілей без участі людини. Це, безумовно, є військовим злочином і ризикує призвести до того, що люди стануть самовдоволеними, дозволяючи штучному інтелекту приймати рішення і ускладнюючи притягнення когось до відповідальності.
Це занепокоєння також не є теоретичним. Нещодавній звіт Washington Post виявив, що Ізраїль вже використовував ШІ для вибору цілей для бомбардувань, іноді без розбору. “Солдати, які були погано навчені користуватися технологією, атакували людські цілі, зовсім не підтверджуючи прогнози Лаванди, – йдеться в статті, яка посилається на частину програмного забезпечення ШІ. “У певні моменти єдиним необхідним підтвердженням було те, що ціль була чоловічої статі”.
Прихильники ШІ на полі бою кажуть, що він зробить солдатів безпечнішими, дозволяючи їм триматися подалі від лінії фронту і знешкоджувати цілі, такі як ракетні склади, або вести розвідку на відстані. А безпілотники зі штучним інтелектом зможуть завдавати точних ударів. Але це залежить від того, як їх використовувати. Критики кажуть, що США повинні краще глушити ворожі системи зв’язку, щоб таким супротивникам, як Росія, було складніше запускати власні дрони або ядерні бомби.
OpenAI забороняє використовувати свої продукти для розробки чи використання зброї або для “автоматизації певних систем, які можуть вплинути на особисту безпеку”. Але минулого року компанія оголосила про партнерство з оборонно-технологічною компанією Anduril, виробником дронів і ракет на основі штучного інтелекту, для створення систем, які можуть захистити від атак дронів. Компанія заявляє, що це дозволить “швидко синтезувати чутливі до часу дані, зменшити навантаження на людей-операторів і поліпшити ситуаційну обізнаність”.
Не важко зрозуміти, чому технологічні компанії зацікавлені в участі у війні. США щорічно витрачають майже трильйон доларів на оборону, і скорочення цих витрат залишається непопулярною ідеєю. Оскільки новообраний президент Трамп наповнив свій кабінет консервативно налаштованими технічними діячами, такими як Ілон Маск і Девід Сакс, очікується, що ціла низка гравців у сфері оборонних технологій отримають значні переваги і потенційно витіснять існуючі оборонні компанії, такі як Lockheed Martin.
Хоча OpenAI забороняє своїм клієнтам використовувати свій ШІ для створення зброї, існує ціла низка моделей з відкритим вихідним кодом, які можуть бути використані для тих же цілей. Додайте до цього можливість 3D-друку деталей зброї – саме цим, на думку правоохоронців, займався ймовірний стрілець UnitedHealthcare Луїджі Манджоне – і виготовити саморобну автономну машину для вбивства, не виходячи з дому, стає напрочуд легко.