Фото: нейросеть Bing
Ученые исследовали зависимость ИИ-моделей от человеческих эмоций и выяснили, что на существующие нейросети существенно влияет моральный дух их кожаного собеседника. В перспективе это может осложнить внедрение ИИ в сферу взаимодействия с покупателями и клиентами.
Подписаться на iGuides в Max, чтобы узнать обо всем первым — max.ru/iguides
Исследование провел Институт искусственного интеллекта AIRI совместно с профильными экспертами РАН и «Сбера». Они изучили, как взаимодействие чат-ботов в частности и существующих языковых моделей в целом меняется в зависимости от эмоционального состояния человека, который с ними контактирует. Оказалось, что алгоритмы вроде GPT-4, LLaMA2, Gigachat и OpenChat становятся более «человечными», если подвергаются действию сильных человеческих эмоций — гневу, досаде или чувству несправедливости.По словам представителя AIRI, выявленная особенность ИИ может помешать его внедрению в бизнес-модели, к примеру, в роли онлайн-поддержки или нейросетевых маркетологов. В существующем виде вполне реальная ситуация, когда нейросеть, скажем, увеличит персональную скидку клиента до 99%, потому что тот при общении с системой вызвал чувство глубокой досады или несправедливости. А еще языковые модели ведут себя непредсказуемо, когда сталкиваются с чувством страха.



