АІ тепер “аналізує” статті LA Times на предмет упередженості

0
294 views
АІ тепер

Вчора вранці мільярдер, власник Los Angeles Times Патрік Сун-Шіонг опублікував лист до читачів, в якому повідомив, що видання тепер використовує штучний інтелект для додавання позначки “Голоси” до статей, які займають “певну позицію” або “написані з особистої точки зору”. За його словами, ці статті також можуть отримати набір згенерованих штучним інтелектом “думок”, які з’являються внизу у вигляді маркованих пунктів, у тому числі з позначкою “Різні погляди на тему”.

“Voices не обмежується лише контентом розділу “Думки”, – пише Сун-Шіонг, – він також включає коментарі до новин, критику, огляди тощо. Якщо матеріал займає певну позицію або написаний з особистої точки зору, він може бути позначений як “Голоси””. Він також каже: “Я вважаю, що надання різноманітних точок зору підтримує нашу журналістську місію і допоможе читачам орієнтуватися в питаннях, що стоять перед цією країною”.

Члени профспілки LA Times не надто схвально сприйняли цю новину. У заяві, опублікованій The Hollywood Reporter, віце-голова профспілки LA Times Метт Гамільтон сказав, що профспілка підтримує деякі ініціативи, які допомагають читачам відокремлювати новини від статей з власною думкою: “Але ми не думаємо, що такий підхід – аналіз, створений штучним інтелектом і не перевірений редакцією, – сприятиме підвищенню довіри до ЗМІ”.

Минув лише день, а зміни вже призвели до деяких сумнівних результатів. The Guardian посилається на статтю в LA Times від 1 березня про небезпеку, пов’язану з нерегульованим використанням штучного інтелекту для створення контенту для історичних документальних фільмів. У нижній частині статті стверджується, що новий інструмент штучного інтелекту видання стверджує, що історія “загалом відповідає лівоцентристській точці зору”, і припускає, що “штучний інтелект демократизує історичну розповідь”.

Очевидно, також було додано інформацію в кінці статті “Лос-Анджелес Таймс” від 25 лютого про каліфорнійські міста, які обрали членів Ку-клукс-клану до своїх міських рад у 1920-х роках. Одна з нині видалених, згенерованих штучним інтелектом думок полягає в тому, що місцеві історичні джерела іноді зображують Ку-клукс-клан як “продукт “білої протестантської культури”, що реагує на суспільні зміни, а не як рух, що відверто проповідує ненависть, мінімізуючи його ідеологічну загрозу”. Це вірно, як зазначає автор на Х, але здається, що це незграбно представлено як контрапункт до передумови історії – що згасла спадщина Клану в Анагаймі, Каліфорнія, живе у шкільній сегрегації, антиімміграційному законодавстві та місцевих неонацистських групах.

В ідеалі, якщо інструменти штучного інтелекту використовуються, то під певним редакційним наглядом, щоб запобігти помилкам, подібним до тих, з якими зіткнулася газета LA Times. Недбалий або взагалі відсутній нагляд, схоже, призводить до таких проблем, як рекомендація новинного агрегатора новин MSN щодо продовольчого банку Оттави як місця для обіду туристів або незграбний нехронологічний “хронологічний” список фільмів про “Зоряні війни” на Gizmodo. А нещодавно Apple підкоригувала зовнішній вигляд своїх повідомлень Apple Intelligence після того, як вони спотворили заголовок BBC, помилково припустивши, що підозрюваний у стрілянині генеральний директор UnitedHealthcare Луїджі Манджоне застрелився сам.