OpenAI заявила, що розвиток її моделей штучного інтелекту відбувається швидше, ніж прогнозувалося, і наступні покоління можуть нести «високий рівень ризику» у сфері кібербезпеки. Компанія зазначає, що зростання можливостей ІІ підвищує ймовірність використання таких систем для атак на цифрові інфраструктури.
За даними OpenAI, у спеціалізованому тестуванні з кібербезпеки модель GPT-5 змогла виконати 27% поставлених завдань, тоді як оновлена GPT-5.1 already продемонструвала результат у 76%. Такий стрибок свідчить про суттєве вдосконалення здатності ШІ розуміти та відтворювати методи хакерських атак.
У компанії наголошують: відтепер кожна нова модель розглядатиметься як потенційно «високоризикова» з точки зору кіберзагроз.
Фахівці зазначають, що ситуація характерна не лише для OpenAI. Зростання обчислювальної потужності і складності моделей у всій індустрії штучного інтелекту супроводжується збільшенням їхнього потенціалу до зловмисного використання.