Компанія OpenAI зіткнулася з черговою скаргою на порушення конфіденційності в Європі через схильність її вірусного чат-бота до галюцинацій неправдивої інформації – і на цей раз регуляторам буде складно її проігнорувати.
Група захисту прав на приватність Noyb підтримує людину в Норвегії, яка з жахом виявила, що ChatGPT повертає вигадану інформацію про те, що він був засуджений за вбивство двох своїх дітей і замах на вбивство третього.
Попередні скарги на те, що ChatGPT генерує некоректні персональні дані, стосувалися таких питань, як неправильна дата народження або невірні біографічні дані. Одна з проблем полягає в тому, що OpenAI не пропонує способу для людей виправити невірну інформацію, яку ШІ генерує про них. Зазвичай OpenAI пропонує блокувати відповіді на такі підказки. Але відповідно до Загального регламенту захисту даних Європейського Союзу (GDPR), європейці мають низку прав на доступ до даних, які включають право на виправлення персональних даних.
Інший компонент цього закону про захист даних вимагає від контролерів даних переконатися, що персональні дані, які вони створюють про людей, є точними – і це те, на що Noyb звертає увагу у своїй останній скарзі до ChatGPT.
“GDPR чіткий. Персональні дані повинні бути точними”, – сказав Йоаким Седерберг, юрист із захисту даних Noyb, у своїй заяві. “Якщо це не так, користувачі мають право вимагати, щоб вони були змінені для відображення правди. Показувати користувачам ChatGPT крихітне застереження про те, що чат-бот може робити помилки, явно недостатньо. Ви не можете просто поширювати неправдиву інформацію, а в кінці додати невелике застереження про те, що все, що ви сказали, може просто не відповідати дійсності”.
Підтверджені порушення GDPR можуть призвести до штрафних санкцій у розмірі до 4% від глобального річного обороту.
Правозастосування також може призвести до змін у продуктах АІ. Зокрема, раннє втручання італійського наглядового органу із захисту даних GDPR, який тимчасово заблокував доступ до ChatGPT у країні навесні 2023 року, змусило OpenAI внести зміни в інформацію, яку він розкриває користувачам, наприклад, в інформацію, яку він розкриває користувачам. Згодом наглядовий орган оштрафував OpenAI на 15 мільйонів євро за обробку даних людей без належних правових підстав.
З того часу, однак, можна сказати, що європейські наглядові органи з питань конфіденційності стали більш обережно ставитися до GenAI, намагаючись з’ясувати, як найкраще застосувати GDPR до цих популярних інструментів штучного інтелекту.
Два роки тому Комісія із захисту даних Ірландії (DPC), яка відіграє провідну роль у забезпеченні дотримання GDPR за попередньою скаргою Noyb ChatGPT, закликала не поспішати із забороною, наприклад, інструментів GenAI. Це свідчить про те, що регулятори повинні витратити час на те, щоб розібратися з тим, як застосовується закон.
Варто зазначити, що скарга на ChatGPT, яка розслідується польським наглядовим органом із захисту даних з вересня 2023 року, досі не отримала жодного рішення.
Нова скарга Нойба на ChatGPT, схоже, має на меті розбудити регуляторів конфіденційності, коли мова заходить про небезпеку галюцинацій від штучних інтелектів.