У середу компанія OpenAI попередила, що її майбутні моделі штучного інтелекту можуть становити «високий» ризик для кібербезпеки, оскільки їхні можливості швидко розвиваються.
Моделі ШІ можуть або розробляти діючі експлойти нульового дня проти добре захищених систем, або допомагати у складних операціях з вторгнення в підприємства чи промислові об’єкти, спрямованих на досягнення реальних ефектів, зазначив виробник ChatGPT у своєму блозі.
У міру розвитку можливостей OpenAI заявила, що «інвестує в посилення моделей для завдань з оборони кібербезпеки та створення інструментів, які дозволяють захисникам легше виконувати робочі процеси, такі як аудит коду та виправлення вразливостей».
Для протидії ризикам кібербезпеки OpenAI заявила, що покладається на поєднання контролю доступу, зміцнення інфраструктури, контролю виходу та моніторингу.
Компанія, що підтримується Microsoft, заявляє, що незабаром запровадить програму з метою вивчення можливості надання кваліфікованим користувачам і клієнтам, які працюють у сфері кіберзахисту, багаторівневого доступу до розширених можливостей.
OpenAI також створить консультативну групу під назвою Frontier Risk Council, яка забезпечить тісну співпрацю досвідчених кіберзахисників і фахівців з безпеки з її командами.
Група спочатку зосередиться на кібербезпеці, а в майбутньому розширить свою діяльність на інші передові сфери.










