О чем эта книга?
Книга Джеймса Баррата «Наше последнее изобретение» (в российском издании «Последнее изобретение человечества») посвящена опасности, которую несет активное развитие искусственного интеллекта (ИИ).
Книга вышла в 2013 году и с тех пор мы еще больше продвинулись к созданию интеллекта человеческого уровня (УЧИ). Не так давно искусственный интеллект одолел чемпиона мира в го, а еще раньше прошел тест Тьюринга, введя в заблуждение часть судей, которые поверили, что переписываются с мальчиком из Одессы Женей Густманом. Но, безусловно, цели создателей искусственного интеллекта гораздо масштабнее, чем производство машин, обыгрывающих людей в игры.
В своей книге режиссер-документалист Джеймс Баррат рассказывает о неизвестных широкой публике опасностях, которые таит в себе развитие искусственного интеллекта. Его мнение покажется необычным, так как средства массовой информации преподносят открытия из области искусственного интеллекта в основном в положительном ключе. Во многом это объяснимо. Благодаря развитию технологий мы решаем задачи, ранее казавшиеся непосильными, и впереди видятся еще более удивительные возможности. В результате многие не сомневаются в том, что искусственный интеллект однозначное благо для человечества.
Но что если кроме безграничных возможностей, создание ИИ, во много раз превосходящего человеческий, несет и безграничные риски?
Джеймс Баррат пообщался с лучшими учеными, занимающимися развитием и изучением искусственного интеллекта. И многие из них всерьез озабочены опасностями, которые представляет для нас создание искусственного интеллекта, превосходящего человеческий.
О каких опасностях идет речь?
Речь идет не только о выходе оборудования из строя и о нашей зависимости от этого оборудования. Основная опасность для человечества, по мнению Джеймса Баррата, в том, что искусственный интеллект, став достаточно умным, выйдет из-под контроля.
Совершенно неизвестно, как он станет к нам относиться, — как к своим создателям или как к препятствию на пути. И очень вероятно, что он будет равнодушен к нашей судьбе. Автор уверен, что нет никаких гарантий, что искусственный интеллект станет подчиняться людям и соблюдать их интересы.
Действительно. Мы знаем, что произошли от гораздо более примитивных существ, но это не значит, что нас очень волнуют их интересы. Напротив, если они войдут в противоречие с нашими, судьба этих существ будет незавидной.
Но разве нельзя заранее предусмотреть, чтобы ИИ не причинил вред человеку?
Иногда те, кто считает, что развитый ИИ не будет опасным для нас, цитируют законы робототехники Айзека Азимова, которые писатель сформулировал в рассказе «Хоровод». Их суть заключается в том, что: роботу запрещено причинять вред человеку действием или бездействием; робот всегда должен подчиняться человеку, если его команды не противоречат первому положению; робот должен заботиться о собственной безопасности, если это не противоречит предыдущим положениям. Но проблема в том, что даже в самом рассказе робот не может руководствоваться этими законами и попадает в замкнутый круг.
В дальнейших своих рассуждениях Джеймс Баррат вообще ставит под сомнение реальность того, что мы сможем так запрограммировать искусственный интеллект, чтобы учесть все возможные варианты развития событий. Даже сейчас, работая с гораздо менее сложной техникой, люди то и дело совершают ошибки, из-за которых происходят катастрофы. Ошибки такой сложной системы как развитый искусственный интеллект просто невозможно будет предусмотреть заранее.
По мнению автора, для нас риски сосуществования на одной планете с интеллектом, превосходящим человеческий, потенциально огромны.
Кстати, чем мы рискуем?
Как считает автор — всем, что у нас есть, в том числе жизнью. Сейчас мы движемся к созданию интеллекта человеческого уровня (УЧИ), после чего следующей целью ученых станет создание искусственного суперинтеллекта (ИСИ) — самосознающего и самообучающегося.
С одной стороны, создание ИСИ открывает безграничные возможности для человечества — излечение от всех болезней, завоевание космоса, открытия, исследования, технологии, которые недоступны на текущем уровне знаний.
С другой стороны, создание ИСИ потенциально может привести к полному уничтожению человечества и жизни на Земле.
Похоже на сценарий фильма-катастрофы…
Действительно. Но что может сделать разум, способный обучаться и самосовершенствоваться, который за короткое время способен стать в миллионы раз умнее человека? Мы не можем этого знать. Но вряд ли его остановят законы робототехники.
Джеймс Баррат предлагает представить себя человеком в мире крыс. Как бы вы стали действовать, чтобы выйти на свободу? Возможно, вы многое им наобещали. Но заботила ли вас их судьба после освобождения? Вряд ли.
Как отмечает автор, типичная ошибка — приписывать искусственному интеллекту чисто человеческие мотивации — мораль, вину, месть, злобу и агрессию. Но искусственному интеллекту не нужно быть злым, чтобы нас уничтожить. Ему достаточно будет просто того, что мы стоим на пути реализации его интересов.
Все равно, кажется, что это маловероятно и похоже на научную фантастику
Да, некоторые критикуют автора за слишком параноидальный взгляд на развитие технологий. Но давайте попробуем рассмотреть его аргументы. Вполне возможно, что мы действительно недооцениваем опасность.
Большинство ученых, с которыми пообщался автор, прогнозируют, что ИСИ с 90 процентной вероятностью появится уже к концу 21 века.
Об опасностях ИСИ в основном говорят узкие специалисты. Однако до журналистов, блогеров и обычных людей доходят в основном положительные сценарии.
Автор ссылается на исследования Нобелевского лауреата Дэниеля Канемана и его коллеги Амоса Тверски, которые показали, что люди склонны недооценивать риск того, что никогда не случалось. Возможно, именно поэтому в 2008 году произошел столь мощный коллапс финансовой системы, ведь большинство людей, просто не могли представить, что возможна финансовая катастрофа такого масштаба, несмотря на то, что все к ней шло.
Сейчас мы видим, что компьютерные технологии приносят человечеству только пользу. И мы не задумываемся об обратной стороне. Но среди ученых немало и тех, кто вполне допускает, что развитый искусственный интеллект сможет стереть человечество с лица земли.