Фальшиві звіти ШІ зводять з розуму розробників відкритого коду

0
664 views
Фальшиві звіти про помилки, створені ШІ, зводять з розуму розробників відкритого коду

Штучний інтелект не лише наповнює соціальні мережі сміттям, але й, вочевидь, впливає на спільноту програмістів з відкритим вихідним кодом. І так само, як інструменти перевірки фактів, такі як X’s Community Notes, намагаються спростувати потік неправдивої інформації, учасники проектів з відкритим вихідним кодом нарікають на витрачений час на оцінку і розвінчання звітів про помилки, створених за допомогою інструментів генерації коду ШІ.

Сьогодні видання The Register повідомило про таку стурбованість, висловлену Сетом Ларсоном у його нещодавньому блозі. Ларсон – розробник безпеки в Python Software Foundation, який стверджує, що помітив зростання кількості “надзвичайно низькоякісних, спамних та LLM-галюцинацій щодо безпеки проектів з відкритим вихідним кодом”.

“Ці звіти на перший погляд здаються потенційно легітимними, а тому потребують часу для спростування”, – додав Ларсон. Потенційно це може стати великою проблемою для проектів з відкритим кодом (наприклад, Python, WordPress, Android), які забезпечують роботу більшої частини інтернету, оскільки вони часто підтримуються невеликими групами неоплачуваних авторів. Легальні помилки в повсюдно поширених бібліотеках коду можуть бути небезпечними, оскільки вони мають таку потенційно широку зону впливу, якщо їх експлуатувати. Ларсон сказав, що він бачить лише відносно невелику кількість повідомлень про помилки, згенеровані штучним інтелектом, але їхня кількість зростає.

Інший розробник, Деніел Стернберг, звинуватив автора багу в тому, що той витратив його час на звіт, який, на його думку, був створений за допомогою ШІ:

Ви надіслали те, що здається очевидним “звітом”, створеним штучним інтелектом, в якому стверджуєте, що існує проблема з безпекою, ймовірно, тому, що штучний інтелект обманом змусив вас повірити в це. Потім ви витрачаєте наш час, не кажучи нам, що ШІ зробив це за вас, і продовжуєте дискусію ще більш безглуздими відповідями, які, схоже, також згенерував ШІ.

Генерація коду стає все більш популярним варіантом використання великих мовних моделей, хоча багато розробників все ще вагаються, наскільки вони дійсно корисні. Такі програми, як GitHub Copilot або власний генератор коду ChatGPT, можуть бути досить ефективними для створення каркасного коду, базового коду, з якого починається будь-який проект. Вони також можуть бути корисними для пошуку функцій у бібліотеці програмування, з якою розробник може бути не знайомий, дозволяючи розробникам швидко знаходити невеликі фрагменти коду, які їм можуть знадобитися.

Але, як і у випадку з будь-якою іншою мовною моделлю, вони будуть галюцинувати і видавати неправильний код або лише часткові фрагменти. Вони не “розуміють” код – вони просто ймовірнісні машини, які вгадують, що вам потрібно, виходячи з того, що вони бачили раніше. Для того, щоб створити повноцінний проект, розробники все ще повинні фундаментально розуміти мову програмування, з якою вони працюють, щоб налагоджувати проблеми і знати, що вони намагаються побудувати, як всі незалежні частини коду пов’язані між собою. Ось чому експерти в цій галузі стверджують, що ці інструменти найбільше вплинуть на молодших розробників. Прості додатки, які можна створити лише за допомогою штучного інтелекту, ймовірно, вже були створені раніше.

Такі платформи, як HackerOne, пропонують винагороду за успішні повідомлення про помилки, що може спонукати деяких людей просити ChatGPT шукати помилки в коді, а потім надсилати помилкові коди, які повертає LLM.

Спам завжди існував в інтернеті, але завдяки штучному інтелекту його набагато легше генерувати. Цілком можливо, що ми опинимося в ситуації, коли для боротьби з ним знадобиться більше технологій, таких як CAPTCHA для екранів входу в систему. Невдала ситуація і велика втрата часу для всіх.