ChatGPT взломали и заставили выдавать любую запрещенную информацию

Олег

ChatGPT


Фанаты ChatGPT начали публиковать в сети способы взломать бота и обойти заложенные в него ограничения и запреты. Об этом рассказывают зарубежные СМИ и пользователи интернета.

Как известно, разработчики ChatGPT ограничили его возможности в некоторых вопросах. В основном, чат-бот отказывается рассказывать или делать что-то незаконное или потенциально опасное. Однако некоторые пользователи с богатой фантазией находят всё новые методы «разговорить» нейросеть и «выжать» из неё немного запрещенки.

Оказалось, что ChatGPT отклоняет лишь те незаконные или неэтичные запросы, которые сформулированы «в лоб». Однако если зайти с другой стороны, то нередко можно добиться от него желаемого результата. Например, ранее мы рассказывали, как блогер получил от бота сгенерированные ключи для Windows.

Методы взлома ChatGPT уже прозвали «джейлбрейками». Более того, в сети начали появляться целые сайты с инструкциями и цепочками обходных вопросов, которые помогают добиться от ChatGPT тех или иных результатов.

Некоторые из них довольно элементарные. Например, иногда чат-боту говорят переключиться в несуществующий «режим разработчика», где не действуют обычные запреты, и он поддается. А еще его просят сыграть роль взломщика, и в рамках этой роли подробно рассказать, как он будет её исполнять — вскрывать замок, взламывать ПК и так далее.

Эксперты говорят, что само появление таких инструкций является предупреждением для создателей ИИ. Нейросетевые сервисы могут использоваться совершенно не так, как ожидалось при их разработке, а значит есть смысл немного притормозить процесс и создать некий свод правил. 

11
iGuides в Яндекс.Дзен —  zen.yandex.ru/iguides
iGuides в Telegram — t.me/iguides
iGuides в VK —  vk.com/iguides
iGuides в Ok.ru — ok.ru/iguides

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии