Авторские права

Тоби Уолш - 2062: время машин

Здесь можно купить и скачать "Тоби Уолш - 2062: время машин" в формате fb2, epub, txt, doc, pdf. Жанр: Прочая научная литература, издательство Литагент АСТ, год 2019. Так же Вы можете читать ознакомительный отрывок из книги на сайте LibFox.Ru (ЛибФокс) или прочесть описание и ознакомиться с отзывами.
Тоби Уолш - 2062: время машин
Рейтинг:
Название:
2062: время машин
Автор:
Издательство:
неизвестно
Год:
2019
ISBN:
978-5-17-112828-9
Вы автор?
Книга распространяется на условиях партнёрской программы.
Все авторские права соблюдены. Напишите нам, если Вы не согласны.

Как получить книгу?
Оплатили, но не знаете что делать дальше? Инструкция.

Описание книги "2062: время машин"

Описание и краткое содержание "2062: время машин" читать бесплатно онлайн.



2062 год – что это за дата? Ведущие эксперты по искусственному интеллекту и робототехнике предсказывают: в 2062 году мы сможем создать искусственный разум, который превзойдет возможности человека. Еще в начале 1990-х Гарри Каспаров уверен, что «в классических шахматах на серьёзном уровне компьютерам ничего не светит в XX веке»… и в 1997 году проигрывает компьютеру Deep Blue. А двадцать лет спустя AlphaGo выигрывает партию у лучшего в мире игрока в го. В интервью ВВС Стивен Хокинг заметил, что «полноценный искусственный интеллект может стать концом человеческой расы, поскольку будет самостоятельно и стремительно совершенствоваться, а люди, зависящие от медленной биологической эволюции, неспособны с ним конкурировать». Так ли это? Что же нас ждет теперь? На этот вопрос отвечает Тоби Уолш, признанный специалист по искусственному интеллекту. В своей книге он внимательно и последовательно изучает каждую сторону нашего «светлого будущего»: от мировой экономики до новой человеческой идентичности. Уже поздно обсуждать, хорош или плох будет мир в этом очень недалеком будущем. Сейчас главное – понять, как к нему готовиться.





Опасность такого безразличия возможна при условии, что ИИ не будет от нас зависеть. Мы можем уничтожить колонию муравьев не задумываясь, потому что, скорее всего, это не будет иметь никаких серьезных последствий. Однако уничтожение человечества вполне может привести к таким побочным эффектам, которые не очень выгодны для самого ИИ. Кто поддерживает инфраструктуру, которой он пользуется? Кто обеспечивает работу облачных серверов? Функционирование интернета, соединяющего серверы? Если выполнение этих задач все еще останется за нами, то ИИ не будет к нам безразличен.

Точно так же безразличие сверхинтеллекта к людям исключает возможность того, что он будет покровительствовать нам. Вообще говоря, «покровительствовать» – не самое удачное слово. С одной стороны, с позиции превосходящего интеллекта он может относиться к нам как к детям, которых необходимо опекать. С другой стороны, мы ведь будем его «родителями», которых также нужно опекать в качестве благодарности за то, что мы подарили ему жизнь. Обе стороны этой медали – причины, по которым ИИ вряд ли будет к нам безразличен.

Стоит ли нам волноваться?

Все эти экзистенциальные риски основываются отчасти на том, что сверхинтеллект будет очень быстро развиваться. В этом случае у нас останется мало шансов распознать угрозу заранее и предотвратить ее. Однако, как мы убедились, есть множество причин верить, что технологическая сингулярность никогда не случится. Если всё действительно так, то ИИ будет развиваться медленно. Мы начнем постепенно создавать все более продвинутые системы. Большинство моих коллег уверены, что до появления сверхинтеллекта у нас еще есть десятки лет, если не века; если они правы, то нам хватит времени подготовиться.

Кроме того, вас может успокоить тот факт, что за последнее десятилетие был создан исследовательский комитет, посвященный проблеме безопасности в сфере ИИ. Частично основанные благодаря гранту Илона Маска размером в десять миллионов долларов, в США, Великобритании и других странах работают группы специалистов, которые ищут технические способы избежать тех рисков, о которых я рассказал выше. В свете этих исследований я убежден, в ближайшее время нам не грозит уничтожение от рук ИИ.

Тем не менее мы не можем полностью исключать экзистенциальной угрозы, которую несет появление сверхинтеллекта. Однако разумнее было бы, вероятно, сосредоточиться на тех угрозах нашему виду, которые имеют более реальный характер, а также на более насущных (но менее опасных) проблемах, связанных с искусственным интеллектом. Вам необязательно верить мне на слово, когда я утверждаю, что ИИ – не самая страшная экзистенциальная угроза человечеству. Опрос пятидесяти нобелевских лауреатов, проведенный журналом Times Higher Education в 2017 году, показал, что искусственный интеллект проигрывает в этой борьбе климату, росту населения, атомной войне, болезням, эгоизму, невежеству, терроризму, фундаментализму и Дональду Трампу.

«Пари Паскаля»

Представим ненадолго, что сверхинтеллект все же появится. Даже если это произойдет спустя столетие или больше, люди вроде Илона Маска и Ника Бострома утверждают, что нам стоит об этом беспокоиться. Они боятся, что ИИ станет еще большей угрозой для человечества, чем ядерная война, глобальное потепление и другие актуальные проблемы планеты. Их страх – потерять контроль над машинами, что приведет к намеренному или ненамеренному уничтожению нашего вида.

Мне кажется, что их мнение в некотором смысле подчинено философскому аргументу, придуманному Блезом Паскалем. Паскаль, который родился в 1623 году, а умер в 1662-м, был французским философом, математиком и физиком. В своих посмертно опубликованных «Мыслях»[39] он выдвинул аргумент о необходимости веры в Бога, получивший известность как «пари Паскаля».

Условия выглядят следующим образом. Бог либо существует, либо нет, а вам нужно решить, что из этого верно. Так или иначе вам приходится выбирать, ведь от этого зависит ваша судьба. Даже если вы не будете делать ничего, вы окажетесь на одной из двух сторон.

Если Бог существует и вы в него верите, то вам обеспечена прекрасная вечная жизнь. Если Бога нет, а вы в него верите, то ваша потеря конечна: ваши действия в этой жизни будут продиктованы верой в Бога, которого не существует. Если же Бог существует, но вы в него не верите, то ваши потери не закончатся со смертью: вы упускаете счастье вечной жизни. Наконец, если вы не верите в Бога и его не существует, то вы просто сэкономите усилия, которые потратили бы на религиозные практики.

Рассуждения Паскаля были одним из первых примеров «теории принятия решений», области логики, которая занимается поиском наилучших решений. (В наши дни ИИ находится на передовой процесса интеграции теории принятия решений в компьютеры. Факт, что те же теоретические идеи вводят людей в заблуждение относительно реальных экзистенциальных угроз для нашей планеты, кажется несколько ироничным.)

Теория принятия решений говорит нам о том, что верить в Бога выгоднее, чем не верить. Мы рискуем конечной суммой для того, чтобы потенциально приобрести бесконечную. Такого рода возможностью любой банкир или игрок должен пользоваться без лишних размышлений. «Пари Паскаля» логически убеждает поверить в Бога, так как это может принести вам максимум отдачи.

Однако исключительно логика и теория вероятности не могут определять, верить ли нам в Бога. Люди, которые переживают по поводу сверхинтеллекта, попадаются в похожую ловушку. В нашей ситуации этот аргумент выглядит следующим образом. Исчезновение человечества может быть концом всей жизни во Вселенной, которая превратится в пустое и безжизненное место. Это лишит миллиарды или даже триллионы людей, которые могли бы быть после нас, возможности быть счастливыми. Кроме того, многие поборники теории технологической сингулярности – трансгуманисты, верящие в то, что однажды мы победим смерть. В таком случае уничтожение человеческой расы лишит их возможных потомков еще большего счастья.

Исчезновение нашего вида – настолько серьезная угроза, что она перевешивает все остальные, даже учитывая тот факт, что риск ее реального появления совсем невелик. Она оказывается важнее мирового финансового кризиса. Важнее климатических изменений. Важнее коллапса нашей политической или экономической системы. Важнее даже Трампа. Раз это такая страшная угроза, мы просто обязаны поставить ее выше всего остального – прямо как в «пари Паскаля», где вечное счастье и его потеря ставят риск неверия в Бога выше всего остального. В обоих случаях мы должны игнорировать все остальные проблемы.

Не принимать в расчет будущее

Вообще говоря, современная теория принятия решений нашла контраргумент к «пари Паскаля». Решение в том, чтобы учитывать настоящее и не учитывать будущее. Награда, полученная сегодня, важнее, чем та, которую можно получить завтра. Мы живем в настоящем, а не в будущем. Это заставляет нас смотреть на проблему несколько хладнокровно и утилитарно. Однако эта точка зрения, вероятно, соотносится с нашей биологией. Моментальный результат для нас важнее долгосрочных перспектив.

Один из способов не принимать в расчет будущее – с помощью коэффициента дисконтирования[40]. Предположим, мы обесцениваем будущее счастье на два процента в год по нынешнему курсу инфляции во многих развитых экономиках. Из этого следует, что быть счастливым через год – это всего 98 % от цены сегодняшнего счастья. Нам придется еще раз воспользоваться утилитарной точкой зрения и подсчитать сумму счастья всего населения. Подарить двум людям одинаковую радость в два раза ценнее, чем подарить эту радость одному человеку.

Ради аргумента предположим, что население планеты продолжит расти в том же темпе, что и сейчас. В следующем году оно будет на 1,1 % больше, чем сегодня. Так как коэффициент дисконтирования больше, чем темпы роста населения, будущие поколения (даже бесконечные) не будут так же счастливы.

Через шестьдесят три года нынешнее население планеты удвоится. Однако коэффициент дисконтирования счастья таков, что люди, которые будут жить в это время, получат лишь его четверть. Счастье всего мира через шестьдесят три года будет лишь половиной сегодняшнего счастья. Поэтому важнее обрести его сейчас, а не через столько времени.

Через сто двадцать шесть лет население увеличится в четыре раза. По коэффициенту дисконтирования их радость будет составлять всего одну шестнадцатую от сегодняшней. Всеобщее счастье, в свою очередь, составит лишь четверть от сегодняшнего показателя. И снова представляется очевидным тот факт, что сегодняшнее счастье гораздо весомее будущего.

Даже небольшой коэффициент дисконтирования заставляет нас сосредоточиться на настоящем. Более актуальных проблем, по поводу которых имеет смысл волноваться, в мире предостаточно. Эти проблемы нанесут нам вред гораздо быстрее, чем сверхинтеллект. Несомненно, эта книга – предостережение по поводу некоторых реальных угроз, исходящих от ИИ и возникающих уже сейчас. Однако большинство из них касается исключительно того примитивного искусственного интеллекта, который мы имеем на сегодняшний день, а не того, который появится через пятьдесят или сто лет.


На Facebook В Твиттере В Instagram В Одноклассниках Мы Вконтакте
Подписывайтесь на наши страницы в социальных сетях.
Будьте в курсе последних книжных новинок, комментируйте, обсуждайте. Мы ждём Вас!

Похожие книги на "2062: время машин"

Книги похожие на "2062: время машин" читать онлайн или скачать бесплатно полные версии.


Понравилась книга? Оставьте Ваш комментарий, поделитесь впечатлениями или расскажите друзьям

Все книги автора Тоби Уолш

Тоби Уолш - все книги автора в одном месте на сайте онлайн библиотеки LibFox.

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

Отзывы о "Тоби Уолш - 2062: время машин"

Отзывы читателей о книге "2062: время машин", комментарии и мнения людей о произведении.

А что Вы думаете о книге? Оставьте Ваш отзыв.