OpenAI заявила, что развитие ее моделей искусственного интеллекта происходит быстрее, чем предполагалось, и последующие поколения могут нести «высокий уровень риска» в сфере кибербезопасности. Компания отмечает, что рост возможностей ИИ повышает вероятность использования таких систем для атак на цифровые инфраструктуры.
По данным OpenAI, в специализированном тестировании по кибербезопасности модель GPT-5 смогла выполнить 27% поставленных задач, в то время как обновленная GPT-5.1 already продемонстрировала результат в 76%. Такой скачок свидетельствует о существенном совершенствовании способности ИИ понимать и воспроизводить методы хакерских атак.
В компании отмечают: теперь каждая новая модель будет рассматриваться как потенциально «высокорисковая» с точки зрения киберугроз.
Специалисты отмечают, что ситуация характерна не только для OpenAI. Рост вычислительной мощности и сложности моделей по всей индустрии искусственного интеллекта сопровождается увеличением их потенциала к злонамеренному использованию.