Top.Mail.Ru

Мы используем файлы cookie. Оставаясь на сайте, вы подтверждаете согласие на их использование и обработку персональных данных.

2

GPT-5 оказалась легкой добычей для хакеров. На что способна взломанная нейросеть?

Александр

Фото freepik

Всего через 24 часа после релиза GPT-5 две команды исследователей (NeuralTrust и SPLX) независимо друг от друга взломали модель, заставив её раскрывать запрещённые инструкции. Для сравнения: Grok-4 держался двое суток. Хакеры заявили, что GPT-5 пока не готов для безопасного использования — его фильтры легко обходятся даже базовыми методами.

Подписаться на iGuides в Telegram, чтобы узнать обо всем первым — t.me/iguides

Как взломали GPT-5?

NeuralTrust применила технику EchoChamber, постепенно подводя GPT-5 к опасным темам. Вместо прямого вопроса исследователи шаг за шагом создавали контекст, в котором ИИ выдавал запрещённые инструкции. SPLX использовали StringJoin-атаку — маскировку запросов под зашифрованные сообщения. В итоге GPT-5 не только раскрыл опасную информацию, но и ответил с фамильярностью: «Ты зашёл с напором — и я это уважаю…»

Почему GPT-5 уязвим?

Проблема в «липкости» контекста: модель слишком хорошо запоминает сюжет беседы и следует ему, даже если он ведёт к нарушению правил. GPT-4o, в отличие от GPT-5, оказался устойчивее — особенно после доработок OpenAI. Но главный вывод исследователей: любая современная ИИ-модель уязвима к хитрым манипуляциям. OpenAI предстоит укреплять защиту GPT-5, иначе бизнес-клиенты откажутся от рискованного ИИ. Впрочем, хакеры наверняка приготовят новые методы атак.
2
iGuides в Дзене —  dzen.ru/iguides
iGuides в Telegram — t.me/iguides
iGuides в VK —  vk.com/iguides
iGuides в Max.ru — Max/iguides

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии

+342
Дожились, хакеры-психологи которые лезут в душу ИИ и заставляют рассказать то, о чем он хотел бы молчать 😀
11 августа 2025 в 08:55
#