Чат-боти зі штучним інтелектом спотворюють новини

0
580 views
Чат-боти зі штучним інтелектом спотворюють новини

Чат-боти зі штучним інтелектом борються з фактичними неточностями та викривленнями при узагальненні новин, як показало дослідження, проведене BBC. Дослідження, яке вивчало, чи можуть ChatGPT, Google Gemini, Microsoft Copilot і Perplexity від OpenAI точно підсумовувати новини, показало, що більше половини всіх новин, згенерованих штучним інтелектом, мали “значні проблеми в тій чи іншій формі”.

У рамках дослідження BBC попросила ChatGPT, Copilot, Gemini і Perplexity надати резюме 100 новинних статей BBC, а журналісти проаналізували їхні відповіді. Окрім виявлення основних проблем у 51% відповідей, BBC виявила, що 19% відповідей з посиланням на BBC містили невірні твердження, цифри та дати. При цьому 13 відсотків цитат з Бі-Бі-Сі були “або змінені в порівнянні з першоджерелом, або не були присутні в цитованій статті”.

У дослідженні наведено кілька прикладів, зокрема, Gemini помилково стверджує, що Національна служба охорони здоров’я Великої Британії (NHS) “радить людям не починати вейпінг, а курцям, які хочуть кинути палити, рекомендує використовувати інші методи”. Однак насправді NHS рекомендує вейпінг для відмови від куріння. Інший приклад: у грудні 2024 року ChatGPT стверджував, що Ісмаїл Ханія був частиною керівництва ХАМАС, хоча його було вбито в липні 2024 року.

Загалом дослідження показало, що відповіді Gemini “викликають найбільше занепокоєння”, оскільки 46% з них були “позначені як такі, що мають значні проблеми з точністю”. The Verge звернулася до OpenAI, Google, Microsoft і Perplexity з проханням прокоментувати ситуацію, але не одразу отримала відповідь.

Минулого року BBC розкритикувала нові анотації новин на основі штучного інтелекту від Apple за неточне переписування одного з заголовків. У відповідь на це Apple призупинила анотації для новинних і розважальних додатків, а також зробила резюме повідомлень зі штучним інтелектом більш відмінними від стандартних сповіщень.

У відповідь на дослідження Дебора Тернесс, генеральний директор BBC News and Current Affairs, закликала технологічні компанії вирішити проблеми з неточністю. “Ми живемо в неспокійні часи, і скільки часу пройде, перш ніж спотворений штучним інтелектом заголовок завдасть значної шкоди реальному світу?” написала Тернесс. “Ми хотіли б, щоб інші технологічні компанії почули нашу стурбованість, як це зробила Apple. Настав час нам працювати разом – новинній індустрії, технологічним компаніям – і, звісно, уряд також має відігравати важливу роль у цьому питанні”.