Запуск великомасштабних моделей машинного навчання, таких як ChatGPT, на серверах може бути дорогим через значні обчислювальні ресурси, необхідні для навчання та підтримки цих моделей. Крім того, вартість може змінюватися залежно від таких факторів, як розмір і складність моделі, обсяг даних, що обробляються, і рівень попиту користувачів. Тим не менш, організації, які використовують мовні моделі штучного інтелекту, можуть вважати переваги їхніх можливостей вартими витрат на їх використання на своїх серверах. ChatGPT зараз є найпопулярнішою мовною моделлю у світі, і, згідно з останніми звітами, вартість її використання є досить високою.
Запуск ChatGPT коштує 700 000 доларів США на день, вартість GPT-4 може бути вищою
Мовна модель OpenAI, ChatGPT, яка надає послуги обробки природної мови (NLP), вимагає значної обчислювальної потужності та може коштувати до 700 000 доларів США. Висока вартість в основному пов’язана з дорогими серверами, які необхідні для надання зворотного зв’язку на основі введених користувачами, включаючи написання супровідних листів, створення планів навчання та оптимізацію персональних даних. Крім того, хоча Ділан Пател, головний аналітик SemiAnalysis, оцінив вартість моделі GPT-3, ChatGPT тепер може бути ще дорожчим після прийняття останньої моделі GPT-4.
Витрати на обґрунтування штучного інтелекту значно перевищують вартість навчання, а вартість висновків ChatGPT перевищує вартість навчання. Компанії, які використовували мовні моделі OpenAI, платили високі ціни протягом останніх кількох років, а вартість запуску моделі штучного інтелекту та придбання хмарних серверів Amazon AWS для гри підземелля штучного інтелекту стартапу Latitude коштувала до 200 000 доларів США на місяць у 2021 році. Microsoft розробляє чіп штучного інтелекту під кодовою назвою Athena, щоб зменшити поточні витрати на моделі генеративного штучного інтелекту, але чіп буде випущено лише для внутрішнього використання Microsoft і OpenAI вже наступного року.










