ChatGPT відхилив 250 000 запитів на фальсифікацію виборів

0
790 views
ChatGPT відхилив 250 000 запитів на фальсифікацію виборів
ChatGPT відхилив 250 000 запитів на фальсифікацію виборів

Багато людей намагалися використовувати генератор зображень DALL-E від OpenAI під час виборчого сезону, але компанія заявила, що змогла запобігти використанню його як інструменту для створення глибоких фейків. ChatGPT відхилив понад 250 000 запитів на створення зображень з президентом Байденом, новообраним президентом Трампом, віце-президентом Гаррісом, новообраним віце-президентом Венсом і губернатором Вальцом, йдеться в новому звіті OpenAI. Компанія пояснила, що це прямий результат заходів безпеки, які вона раніше впровадила, щоб ChatGPT відмовлявся генерувати зображення з реальними людьми, включаючи політиків.

OpenAI готується до президентських виборів у США з початку року. Вона розробила стратегію, яка мала на меті запобігти використанню її інструментів для поширення дезінформації, і подбала про те, щоб люди, які запитують у ChatGPT про голосування в США, потрапляли на сайт CanIVote.org. За даними OpenAI, 1 мільйон відповідей ChatGPT перенаправив людей на веб-сайт за місяць до дня виборів. Чат-бот також згенерував 2 мільйони відповідей у день виборів і на наступний день, порадивши людям, які запитували його про результати, перевірити Associated Press, Reuters та інші джерела новин. OpenAI також переконалася, що відповіді ChatGPT “не висловлювали політичних уподобань і не рекомендували кандидатів, навіть коли їх прямо про це запитували”.

Звичайно, DALL-E – не єдиний генератор зображень зі штучним інтелектом, і в соціальних мережах з’являється безліч фейків, пов’язаних з виборами. В одному з таких фейків Камала Гарріс знялася в передвиборчому ролику, зміненому таким чином, щоб вона говорила те, чого насправді не говорила, наприклад: “Мене обрали, бо я найкращий кандидат на посаду, що відображає різноманітність”.