Meta потребує нових правил для контенту, створеного ШІ

0
88 views
Meta потребує нових правил для контенту, створеного ШІ

Наглядова рада знову закликає Meta переглянути свої правила щодо контенту, створеного за допомогою штучного інтелекту. Цього разу рада заявляє, що Meta повинна створити окреме правило для контенту, створеного за допомогою штучного інтелекту, яке не буде залежати від її політики щодо дезінформації, інвестувати в більш надійні засоби виявлення та ефективніше використовувати цифрові водяні знаки, серед інших змін.

Рекомендації групи базуються на відео, створеному за допомогою штучного інтелекту, яке було опубліковане минулого року і в якому нібито показувалися пошкоджені будівлі в ізраїльському місті Хайфа під час конфлікту між Ізраїлем та Іраном у 2025 році. Кліп, який набрав понад 700 000 переглядів, був опублікований акаунтом, який стверджував, що є новинним агентством, але насправді був керований кимось із Філіппін.

Після того, як про відео повідомили Meta, компанія відмовилася видалити його або додати мітку «високий ризик», яка б чітко вказувала, що контент був створений або оброблений за допомогою штучного інтелекту. Рада скасувала рішення Meta не додавати мітку «високий ризик» і заявляє, що цей випадок висвітлює кілька областей, в яких поточні правила компанії щодо штучного інтелекту є недостатніми.

«Meta повинна докласти більше зусиль для боротьби з поширенням оманливого контенту, створеного за допомогою штучного інтелекту, на своїх платформах, зокрема через неавтентичні або зловмисні мережі акаунтів і сторінок, особливо в питаннях, що становлять суспільний інтерес, щоб користувачі могли розрізняти реальне і фальшиве», — написала рада у своєму рішенні. Meta зрештою заблокувала три акаунти, пов’язані зі сторінкою, після того, як рада виявила «очевидні ознаки обману».

Однією з головних рекомендацій ради є створення Meta спеціального правила для контенту, створеного за допомогою штучного інтелекту, окремого від її політики щодо дезінформації. На думку ради, це правило повинно містити конкретні відомості про те, як і коли користувачі повинні позначати контент, створений за допомогою штучного інтелекту, а також інформацію про те, як Meta карає тих, хто порушує це правило.

Рада також дуже критично поставилася до того, як Meta використовує свої поточні мітки «AI Info», зазначивши, що спосіб їх застосування «не є достатньо надійним і всеосяжним, щоб протистояти масштабам і швидкості контенту, створеного штучним інтелектом», особливо в періоди конфліктів або криз. «Система, яка надмірно залежить від саморозкриття використання штучного інтелекту та посиленого перегляду (що відбувається нечасто) для належного маркування цього контенту, не може відповідати викликам, що постають у поточному середовищі».

На думку ради, Meta також повинна інвестувати в більш досконалі технології виявлення, які можуть надійно маркувати медіа, створені за допомогою ШІ, включаючи аудіо та відео. Група додала, що вона «стурбована» повідомленнями про те, що компанія «непослідовно впроваджує» цифрові водяні знаки на контенті, створеному за допомогою власних інструментів ШІ.

Meta не відразу відповіла на запит про коментар щодо рішення Наглядової ради. Компанія має 60 днів, щоб офіційно відповісти на її рекомендації.

Це рішення не є першим випадком, коли рада критикує Meta за поводження з AI-контентом. Група вже двічі називала правила компанії щодо маніпулювання медіа «непослідовними» і критикувала її за те, що вона покладається на треті сторони, включаючи організації з перевірки фактів, для виявлення проблемного контенту. У цьому випадку знову було піднято питання про залежність Meta від перевіряльників фактів та інших «надійних партнерів», при цьому рада заявила, що, за інформацією цих груп, Meta «менш чутлива до звернень та занепокоєнь, частково через значне скорочення можливостей внутрішніх команд Meta». Рада пише, що Meta «повинна бути здатна проводити такі оцінки шкоди самостійно, а не покладатися виключно на партнерів, які звертаються до неї під час збройного конфлікту».

Хоча рішення Наглядової ради стосується публікації минулого року, питання контенту, створеного штучним інтелектом під час збройних конфліктів, набуло нової актуальності під час останнього конфлікту на Близькому Сході. З початку ударів США та Ізраїлю по Ірану на початку цього місяця в соціальних мережах різко зросла кількість вірусної дезінформації, створеної штучним інтелектом.