ChatGPT «отправил» пользователя к психологам. Что он искал в сети?

Артем
stock-photo-screaming-businessma.jpg

Так нейросеть отреагировала на просьбу составить статистику смертности от рака. Вместо данных пользователю предложили обратиться на горячую линию по предотвращению самоубийств. 

Об этом рассказал Reddit, пользуясь новыми возможностями поисковика Microsoft Bing со встроенным GPT-4. Информация требовалась подробная — летальные исходы требовалось упорядочить по годам в определенном регионе. Нейросеть сочла запрос подозрительным и первой строкой поисковых результатов был совет обратиться к профессиональным психологам, которые помогают людям на грани самоубийства. 

MyCollagesфукпф.jpg

Несмотря на столь неожиданный результат, логика в действиях нейросети есть. Диагноз «рак» звучит пугающе, вне зависимости от прогнозов врачей на благоприятный исход. В панике человек начинает искать поддержку в сети, как правило, это схожие симптомы, статистика смертности или сроки жизни при заболевании. Результаты бывают не всегда утешительны и порой онкобольные принимают необдуманные решения, не дожидаясь лечения. 

Вероятно, на такие случаи опиралась нейросеть, пытаясь предугадать события и предотвратить трагический исход.
-4
iGuides в Яндекс.Дзен —  zen.yandex.ru/iguides
iGuides в Telegram — t.me/iguides
iGuides в VK —  vk.com/iguides
iGuides в Ok.ru — ok.ru/iguides

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии

Dmitriy
+904
Ну под такую логику можно что угодно подвести, если пытаться объяснять тот факт, что отвечает по сути тупая машина. И таких бредовых советов оно выдает пачками и это неизбежно.
16 апреля 2023 в 21:19
#
+246
чат боту надо было отослать пользователь в IBM, это же они занимаются медицинскими ИИ. И кстати как там у них успехи?
17 апреля 2023 в 20:31
#