OpenAI переглядає політику використання, розпалює дебати про ШІ у військових додатках

0
1 983 views
OpenAI переглядає політику використання, розпалює дебати про ШІ у військових додатках

Компанія OpenAI, відома своїми революційними досягненнями в галузі технології штучного інтелекту, нещодавно потрапила в заголовки газет завдяки ледь помітній, але суттєвій зміні своєї політики використання. Спочатку організація чітко заборонила використовувати свою технологію у “військових цілях”. Однак ця конкретна заборона була знята, що викликало питання і занепокоєння щодо потенційного військового застосування ШІ.

Сьогодні світові військові відомства виявляють все більший інтерес до ШІ

Час, коли відбулися ці зміни, заслуговує на увагу, особливо з огляду на те, що світові військові відомства виявляють все більший інтерес до технологій ШІ. Сара Майерс Вест з AI Now Institute зазначила, що перегляд збігається зі збільшенням використання АІ в зонах конфліктів, таких як сектор Газа. Цей зсув свідчить про можливу відкритість до військової співпраці, яка традиційно пропонує значні фінансові стимули для технологічних компаній.

Хоча OpenAI стверджує, що її технологія не повинна використовуватися для заподіяння шкоди або розробки зброї, відсутність в її політиці формулювання “військові та військові дії” може відкрити двері для інших видів використання ШІ у військових цілях. Наразі OpenAI не пропонує продукту, здатного завдати прямої фізичної шкоди, але її інструменти, такі як мовні моделі, можуть відігравати допоміжну роль у військових операціях, наприклад, у кодуванні або обробці замовлень на потенційно шкідливе обладнання.

Представник OpenAI Ніко Фелікс пояснив, що оновлення політики має на меті встановити універсальні, легко зрозумілі принципи. Компанія наголошує на таких принципах, як “Не нашкодь іншим”, які є широкими, але можуть бути застосовані в різних контекстах. Хоча OpenAI однозначно виступає проти розробки зброї або заподіяння шкоди, існує неоднозначність щодо ширшої сфери військового використання, особливо в додатках, не пов’язаних зі зброєю.

Цікаво, що OpenAI вже співпрацює з DARPA для розробки інструментів кібербезпеки, підкреслюючи, що не всі військові асоціації обов’язково є шкідливими. Зміна політики, схоже, дозволяє таку співпрацю, яка раніше могла бути виключена під ширшою категорією “військової”. Ця зміна пропонує нюансований підхід, що балансує між етичним використанням ШІ і потенційними перевагами, які він може запропонувати в контексті національної безпеки. Однак це залишає місце для дебатів про те, де провести межу у військовому застосуванні – тема, яка, ймовірно, продовжуватиме розвиватися в міру розвитку технологій ШІ.