Близький партнер і співробітник Microsoft, OpenAI, може припустити, що DeepSeek вкрав його інтелектуальну власність і порушив умови надання послуг. Але Microsoft все ще хоче використовувати нові блискучі моделі DeepSeek на своїй хмарній платформі.
Сьогодні Microsoft оголосила, що R1, так звана модель міркувань DeepSeek, доступна на сервісі Azure AI Foundry, платформі Microsoft, яка об’єднує ряд послуг зі штучного інтелекту для підприємств під єдиним прапором. У своєму блозі Microsoft повідомила, що версія R1 на Azure AI Foundry “пройшла сувору перевірку на безпеку”, включаючи “автоматизовану оцінку поведінки моделі і всебічну перевірку безпеки для зниження потенційних ризиків”.
У найближчому майбутньому, за словами представників Microsoft, клієнти зможуть використовувати “дистильовані” версії R1 для локального запуску на комп’ютерах Copilot+, бренду Microsoft, який відповідає певним вимогам щодо готовності до роботи зі штучним інтелектом.
“Оскільки ми продовжуємо розширювати каталог моделей в Azure AI Foundry, ми раді бачити, як розробники та підприємства використовують […] R1 для вирішення реальних проблем і надання трансформаційного досвіду”, – продовжує Microsoft у своєму повідомленні.
Додавання R1 до хмарних сервісів Microsoft є цікавим з огляду на те, що, як повідомлялося, Microsoft ініціювала розслідування потенційного зловживання DeepSeek своїми послугами та послугами OpenAI. На думку дослідників безпеки, які працюють у Microsoft, DeepSeek, можливо, викрав велику кількість даних, використовуючи API OpenAI восени 2024 року. Microsoft, яка також є найбільшим акціонером OpenAI, повідомила OpenAI про підозрілу активність, повідомляє Bloomberg.
Але про R1 говорять в місті, і Microsoft, можливо, переконали включити її в свою хмарну платформу, поки вона ще не втратила своєї привабливості.
Незрозуміло, чи внесла Microsoft якісь зміни до моделі, щоб підвищити її точність – і боротися з цензурою. Згідно з тестом, проведеним організацією NewsGuard, що займається питаннями достовірності інформації, R1 дає неточні відповіді або взагалі не відповідає на питання, пов’язані з новинами, у 83% випадків. Окремий тест показав, що R1 відмовляється відповідати на 85% запитань, пов’язаних з Китаєм, що, можливо, є наслідком урядової цензури, якій піддаються моделі ШІ, розроблені в цій країні.