Anthropic закликає до дій проти «дистиляційних атак» на штучний інтелект, звинувативши три компанії, що займаються штучним інтелектом, у зловживанні своїм чат-ботом Claude. На своєму веб-сайті Anthropic стверджує, що DeepSeek, Moonshot і MiniMax проводили «кампанії промислового масштабу… з метою незаконного вилучення можливостей Claude для вдосконалення своїх власних моделей».
У світі штучного інтелекту «дистиляція» означає, коли менш потужні моделі спираються на відповіді більш потужних моделей для власного навчання. Хоча дистиляція не є поганою річчю в цілому, Anthropic заявила, що такі типи атак можуть використовуватися в більш злочинних цілях. За даними Anthropic, ці три китайські компанії, що займаються штучним інтелектом, були відповідальні за понад «16 мільйонів обмінів з Claude через приблизно 24 000 шахрайських акаунтів». З точки зору Anthropic, ці конкурентні компанії використовували Claude як швидкий спосіб для розробки більш досконалих моделей штучного інтелекту, що також могло призвести до обходу певних заходів безпеки.
Anthropic зазначила у своєму дописі, що змогла з «високою впевненістю» пов’язати кожну з цих кампаній дистиляційних атак із конкретними компаніями завдяки кореляції IP-адрес, запитам метаданих та показникам інфраструктури, а також підтвердженню з боку інших представників галузі штучного інтелекту, які помітили подібну поведінку.
На початку минулого року OpenAI висунула подібні звинувачення проти конкурентних компаній, які використовували її моделі, і у відповідь заблокувала підозрілі акаунти. Що стосується Anthropic, то компанія, яка стоїть за Claude, заявила, що модернізує свою систему, щоб ускладнити дистиляційні атаки та полегшити їх виявлення. Хоча Anthropic звинувачує ці інші компанії, вона також стикається з позовом від музичних видавців, які звинувачують компанію AI у використанні незаконних копій пісень для навчання свого чат-бота Claude.










