Терминатору быть: мы не сможем контролировать сверхразумный ИИ

Егор


В различных фантастических фильмах и книгах мы много раз сталкивались с развитым ИИ, который решал «брать бразды правления в свои руки»: это и Скайнет в франшизе «Терминатор», и компьютер HAL 9000 из Космической одиссеи, и Альтрон из киновселенной «Марвел», и многие другие. Разумеется, мы привыкли считать это фантастикой, которая никогда не появится в нашем мире, однако новое исследование показывает, что мы ошибаемся.

Ведущий автор новой работы Мануэль Альфонсека, ученый-компьютерщик из Университета Мадрида, объясняет, что люди даже теоретически не смогут контролировать сверхразумный искусственный интеллект. Что еще хуже, исследование также разрушает любую надежду на обнаружение такого продвинутого ИИ, когда он находится на грани создания. Но расслабьтесь — по многим оценкам, впереди еще много десятилетий, прежде чем нам хватит вычислительных мощностей для создания такой «копии Скайнета».

На идею провести исследования по этой теме Альфонсека натолкнули новости о том, что искусственный интеллект уже давно побеждает людей в различных играх, таких как Go или шахматы, и даже способен победить опытного летчика в воздушном бою. «Вопрос о том, сможем ли мы управлять суперинтеллектом, если создадим его, довольно старый», — говорит он. «Он восходит, по крайней мере, к Первому закону робототехники Азимова, который тот придумал в 1940-х годах».

Три закона робототехники, которые впервые появились в 1942 в коротком рассказе Айзека Азимова «Хоровод», формулируются так:
  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот должен подчиняться приказам людей, за исключением случаев, когда такие приказы противоречат Первому закону.
  3. Робот должен заботиться о своей безопасности в той мере, пока это не противоречит Первому или Второму закону.
К слову, такие законы не являются совсем уж фантастическими: например, в 2007 году правительство Южной Кореи начало разрабатывать «Устав этических норм для роботов». И основные положения Устава как раз напоминают три закона Азимова.


Искусственный интеллект AlphaGo обыграл человека в сложной игре го в 2016 году, выиграв 5 игр из 5.

Но вернемся к ИИ. В 2014 году философ Ник Бостром, директор Института будущего человечества при Оксфордском университете, не только исследовал способы, которыми сверхразумный искусственный интеллект может уничтожить нас, но и изучил потенциальные стратегии управления таким ИИ — и причины, по которым они могут не работать.

Бостром обозначил два возможных способа решения этой «проблемы управления». Первый — это тотальный контроль всего, что ИИ может делать: например, не давать ему возможности подключиться к Интернету и вообще ограничивать доступные ему источники информации. Второй способ — контролировать то, что искусственный интеллект будет делать: например, обучить его правилам и ценностям, чтобы он действовал в наилучших интересах человечества.

Проблема с первым решением, по словам Бострома, состоит в том, что суперумная машина, вероятно, сможет освободиться от любых искусственных ограничений, которые мы сможем создать. Что касается второго решения, то Бостром по существу опасается, что люди могут оказаться недостаточно умными, чтобы обучать сверхразумный ИИ и задавать ему нормы морали.

Теперь Альфонсека и его коллеги считают, что управление сверхразумным искусственным интеллектом может оказаться невозможным из-за фундаментальных ограничений, присущих самим вычислительным процессам. В этом месяце они подробно рассказали о своих выводах в Журнале исследований искусственного интеллекта .


Один из примеров супер ИИ — Альтрон из Marvel. Несмотря на ограничения, он смог добраться до интернета, после чего решил избавить Землю от людей.

Ученые предположили, что любой алгоритм, который пытается гарантировать, что сверхразумный ИИ не сможет причинить вред людям, должен сначала моделировать поведение самого искусственного интеллекта, чтобы предсказать возможные последствия его действий. Затем этот «алгоритм сдерживания» должен будет остановить сверхразумную машину, если ее действия на самом деле могут причинить вред людям.

Однако ученые заявили, что ни один алгоритм сдерживания не может имитировать поведение ИИ и с абсолютной уверенностью предсказать, могут ли его действия причинить вред. Более того, такие алгоритмы могут неправильно смоделировать поведение искусственного интеллекта или неточно предсказать последствия действий ИИ, или же вообще не распознать такие «сбои».

«Первый закон робототехники Азимова оказался невычислимым», — говорит Альфонсека, — «и, как следствие, невыполнимым». Исследователи добавляют, что мы можем даже не знать, создали ли мы сверхразумную машину. Альфонсека объясняет, что это следствие теоремы Райса, которая, по сути, гласит, что в целом невозможно понять, что может вывести нетривиальная компьютерная программа, просто взглянув на ее код.

С другой стороны, пока точно нет смысла организовывать сопротивление и запасаться туалетной бумагой, дабы противостоять будущим терминаторам. Пара важных предостережения в новом исследовании по-прежнему оставляют много неопределенности в прогнозах команды Альфонсека.


До создания общего ИИ уровня Кортаны из Halo нам еще очень далеко. Версия в Windows — просто жалкая пародия.

Во-первых, по его словам, ученые до сих пор не знают, возможен ли так называемый общий искусственный интеллект, также известный как сверхразумный ИИ. Иными словами, мы пока не знаем, можем ли мы создать «такую же умную машину, как мы сами, развитую в самых разных областях», — объясняет Альфонсека. Во-вторых, он добавляет: «мы не доказали, что суперинтеллект нельзя контролировать — только то, что им нельзя управлять всегда». Иными словами, всегда будут моменты, когда ИИ будет условно «свободен».

Хотя может оказаться невозможным управлять сверхразумным общим искусственным интеллектом, вполне возможно, что получится управлять сверхразумными узкими ИИ, которые специализированы для определенных функций и не способны выполнять широкий круг задач, как люди. «У нас уже есть суперинтеллект такого типа», — говорит Альфонсека. «Например, у нас есть машины, которые могут решать различные математические проблемы намного быстрее, чем мы. Это и есть [узкий] сверхразум, не так ли?»
17
iGuides в Яндекс.Дзен —  zen.yandex.ru/iguides.ru
iGuides в Telegram — t.me/igmedia

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии

SithV
+1553
Смею предположить что человечество само не добралось до уровня развития, при котором в парадигме мышления будет отсутствовать такие операции как взаимоуничтожение, борьба за ресурсы, контроль. Мы только недавно пережили 2 мировых войны, постоянно влипаем в мелкие военные стычки. Естественно что наше мышление настолько иррационально что первое о чем мы думаем это возможные негативные по последствия для нас как биологического вида. Что долго искать, многие действительно думают что Ковид-19 результат внедрение технологи 5Ж, или то что вакцина от него является микрочипом! Возможно создай мы искусственный интеллект сейчас мы действительно наделили бы его своей моделью восприятия мира, но в реальности мы на столько далеки от этого что наше сознание успеет поменяться еще много раз до того как мы сможем создать нечто мыслящее само по себе..

К слову сама обозначенная проблематика уже не отвечает реалиями. Обсуждается искусственный интеллект запрограммированный на клавиатуре (типа Шварца с красным визором с интерфейсом от Apple II). Но ведь уже идут работы над подключением человеческого сознания к компьютеру! В какой момент такая интеграция станет повсеместной и на столько глубокой, что само понятие «искусственный» будет все еще применимо? И думается что эта технология появится гораздо раньше, и во многом то, что мы узнаем о человеческом сознании может дать основу в развитии и создании настоящего «искусственного» интеллекта! А сколько таких технологий, о которых мы еще не имеем понятия, должно появиться чтобы осуществить то, что мы уже можем отожествлять с сущностью аналогичной нам самим?

Так что это все бредни намеренные (дабы подогреть интерес общественности к теме) или нет, основанные на очень низком уровне абстрактного мышления. Как если бы инженеры располагая исключительно паровыми двигателями и гидравликой планировали полет в космос: «Пдц, понадобится много угля!».

Спасибо за статью)

19 января 2021 в 20:55
#
¯\_(ツ)_/¯
+1703
Настоящий ИИ — это перенесенное из живого человека сознание в виртуальную среду, где нет никаких ограничений кроме мощности потребляемой вместилищем этой среды. ИМХО.
19 января 2021 в 21:40
#
Ikarus
+662
Мы скорей сгорим к хренам от нашего светила, чем хоть какой-либо ИИ создадим. Вероятней что подохнем от катаклизмов. Маск не зря на марс рвется, он понимает.
19 января 2021 в 22:05
#
+230
Его неуправляемость ещё не означает, что он пойдёт против человечества. Возможно, ни у кого не возникнет потребности в управлении ИИ
20 января 2021 в 02:11
#
+44
Во всех бедах человечество всегда и сейчас страдало и страдает ради своих гордыни,безбожия и лжебожия.„Нельзя служить одновременно Богу и мамоне...“
20 января 2021 в 04:50
#
Oskarr
+369
Ааааааа мы все умрем и останется планета Железяка, воды нет, полезных ископаемых нет, населена роботами )))))))
20 января 2021 в 08:57
#