Користувачі X сприймають Grok як фактчекер

0
366 views
Користувачі X сприймають Grok як фактчекер

Деякі користувачі X Ілона Маска звертаються за перевіркою фактів до штучного інтелекту Grok, що викликає занепокоєння серед людей, які займаються перевіркою фактів, що це може сприяти поширенню дезінформації.

Раніше цього місяця X дозволила користувачам звертатися до Grok’а xAI і ставити йому запитання про різні речі. Цей крок був схожий на крок Perplexity, яка запустила автоматизований акаунт на X, щоб запропонувати подібний досвід.

Невдовзі після того, як xAI створила автоматизований акаунт Grok на X, користувачі почали експериментувати із запитаннями до нього. Деякі люди на ринках, зокрема в Індії, почали просити Grok перевірити коментарі та запитання, які стосуються конкретних політичних переконань.

Факт-чекери занепокоєні використанням Grok – або будь-якого іншого подібного помічника зі штучним інтелектом – у такий спосіб, оскільки боти можуть формулювати свої відповіді так, щоб вони звучали переконливо, навіть якщо вони не є фактично правильними. Випадки поширення фейкових новин і дезінформації були помічені за допомогою Grok і в минулому.

У серпні минулого року п’ять держсекретарів закликали Маска внести критичні зміни в роботу Grok після того, як оманлива інформація, згенерована помічником, з’явилася в соціальних мережах напередодні виборів у США.

Інші чат-боти, зокрема ChatGPT від OpenAI та Gemini від Google, також були помічені в генеруванні недостовірної інформації про вибори минулого року. Крім того, у 2023 році дослідники дезінформації виявили, що чат-боти зі штучним інтелектом, зокрема ChatGPT, можуть легко використовуватися для створення переконливих текстів з оманливими наративами.

“Асистенти зі штучним інтелектом, такі як Grok, дуже добре використовують природну мову і дають відповідь, яка звучить так, ніби це сказала людина. Таким чином, продукти зі штучним інтелектом претендують на природність і автентичне звучання відповідей, навіть якщо вони потенційно дуже помилкові. У цьому й полягає небезпека”, – розповіла TechCrunch Енджі Холан, директорка Міжнародної мережі перевірки фактів (IFCN) в компанії Poynter.

На відміну від помічників зі штучним інтелектом, фактчекери використовують для перевірки інформації кілька надійних джерел. Вони також несуть повну відповідальність за свої висновки, вказуючи свої імена та організації для забезпечення довіри до них.

Пратік Сінха, співзасновник індійського некомерційного веб-сайту з перевірки фактів Alt News, сказав, що, хоча наразі здається, що Grok має переконливі відповіді, вони є настільки ж переконливими, як і дані, які йому надаються.

“Хто буде вирішувати, які дані йому надавати, і саме тут з’являється питання втручання уряду тощо, – зазначив він.

“Прозорості немає. Все, що не є прозорим, завдасть шкоди, тому що все, що не є прозорим, може бути зліплене у будь-який спосіб”.