» » » Умберто Эко - Отсутствующая структура. Введение в семиологию


Авторские права

Умберто Эко - Отсутствующая структура. Введение в семиологию

Здесь можно купить и скачать "Умберто Эко - Отсутствующая структура. Введение в семиологию" в формате fb2, epub, txt, doc, pdf. Жанр: foreign_edu, издательство Литагент Corpus, год 2019. Так же Вы можете читать ознакомительный отрывок из книги на сайте LibFox.Ru (ЛибФокс) или прочесть описание и ознакомиться с отзывами.
Умберто Эко - Отсутствующая структура. Введение в семиологию
Рейтинг:
Название:
Отсутствующая структура. Введение в семиологию
Автор:
Издательство:
неизвестно
Жанр:
Год:
2019
ISBN:
978-5-17-093387-7
Вы автор?
Книга распространяется на условиях партнёрской программы.
Все авторские права соблюдены. Напишите нам, если Вы не согласны.

Как получить книгу?
Оплатили, но не знаете что делать дальше? Инструкция.

Описание книги "Отсутствующая структура. Введение в семиологию"

Описание и краткое содержание "Отсутствующая структура. Введение в семиологию" читать бесплатно онлайн.



Мировую славу Умберто Эко получил после выхода романа «Имя розы» (1980), ставшего классикой. В академической среде фигура Эко не менее масштабна. Выдающийся семиолог, медиевист, культуролог, почетный профессор многих университетов Умберто Эко рассматривал общие проблемы семиотики, взаимоотношение семиотики и психоанализа в сфере архитектуры, кино, современной живописи, музыки, рекламы. В числе работ итальянского исследователя – десятки научных трудов, новелл, сказок, философских трактатов. «Отсутствующая структура» – одно из самых знаменитых произведений Эко-ученого.





Схема 1. Коммуникативный процесс между двумя механизмами


Между тем существует также явление, называемое шумом. Шум – это возникающая в канале связи помеха, способная исказить физические характеристики сигнала. Например, электрические разряды, внезапное обесточивание и т. п., из-за чего сигнал «лампочка не горит» может быть истолкован превратно, а именно понят так, что вода ниже нулевой отметки. Схема такой коммуникации приводится ниже.


II. 3. Это значит, что, если мы хотим уменьшишь риск ошибки из-за шума, нам следует усложнить код. Допустим, мы установили две лампочки: А и В. Когда лампочка А горит, – значит, все в порядке; если А гаснет и зажигается В, – значит, вода превысила уровень нулевой отметки. В этом случае мы удвоили затраты на коммуникацию, но зато уменьшился риск ошибки, связанной с возникновением шума. Обесточивание погасило бы обе лампочки, но принятый нами код не предусматривает ситуации «обе лампочки не горят», и мы в состоянии отличить сигнал от не-сигнала.

Но может случиться и так, что из-за какой-то простейшей неисправности вместо лампочки В загорится лампочка А или наоборот, и тогда, чтобы избежать этой опасности, мы продолжаем усложнять код, увеличивая его комбинаторные возможности. Добавим еще две лампочки и получим ряд ABCD, в котором АС будет означать «безопасный уровень», BD – нулевую отметку. Таким образом, мы уменьшим опасность помех, могущих исказить сообщение.

Итак, мы ввели в код элемент избыточности: мы пользуемся двумя парами лампочек для сообщения того, что можно было бы сообщить с помощью одной лампочки, и, стало быть, дублируем сообщение.

Впрочем, избыточность, предоставляющая возможность дублировать сообщение, не только обеспечивает большую надежность, усложненный таким образом код позволяет передавать дополнительные сообщения. Действительно, код, состоящий из элементов ABCD, допускает различные комбинации, например: A-B-C-D, AB-BC–CD-AC-BD-AD, ABC-BCD-ACD-ABD, а также другие сочетания АВ-CD или же A-C-B-D и т. д.

Код, следовательно, предполагает наличие репертуара символов, и некоторые из них будут соотноситься с определенными явлениями, в то время как прочие до поры до времени останутся незадействованными, не значащими (хотя они и могут заявлять о себе в виде шума), но готовыми означить любые сообщения, которые нам покажутся достойными передачи.

Всего этого достаточно, чтобы код мог сигнализировать не только об уровне опасности. Можно выделить ряд уровней, последовательно описывающих переход от полной безопасности к состоянию тревоги, обозначая уровни ниже нулевой отметки: – 3, – 2, – 1 и т. д., и ряд уровней выше нулевой отметки 1, 2, 3, от «очень тревожно» до «максимальная опасность», закрепив за каждым определенную комбинацию букв путем введения соответствующих программ в передающее и принимающее устройства.


II. 4. Каким же образом передается сигнал в кодах такого типа? Принцип их действия – это выбор из двух возможностей, обозначим его как оппозицию «да» и «нет». Лампа или горит, или не горит (есть ток в цепи, нет тока). Суть дела не меняется, если сигнал передается как-то иначе. Во всех подобных случаях имеется бинарная оппозиция, максимальная амплитуда колебания от 1 к о, от «да» к «нет», от размыкания к замыканию.

Здесь не обсуждается вопрос о том, является ли метод бинарных оппозиций, позаимствованный, как мы увидим позже, из теории информации, наиболее подходящим способом описания передачи информации и всегда ли и везде передача информации основана на двоичном коде (всякая ли коммуникация, когда бы и где она ни осуществлялась, базируется на последовательном двоичном выборе). Однако то обстоятельство, что все науки – от лингвистики до нейрофизиологии – при описании коммуникативных процессов пользуются бинарным методом, свидетельствует о его простоте и экономичности в сравнении с другими.

III. Информация

III. 1. Когда мы узнаем, какое из двух событий имеет место, мы получаем информацию. Предполагается, что оба события равновероятны и что мы находимся в полном неведении относительно того, какое из них произойдет. Вероятность – это отношение числа возможностей ожидаемого исхода к общему числу возможностей. Если я подбрасываю монетку, ожидая, что выпадет: орел или решка, то вероятность составит 1/2.

В случае игральной кости, у которой шесть сторон, вероятность для каждой составит 1/6, если же я бросаю одновременно две кости, рассчитывая получить две шестерки или две пятерки, вероятность выпадания одинаковых сторон будет равняться произведению простых вероятностей, т. е. 1/36.

Отношение ряда событий к ряду соответствующих им возможностей – это отношение между арифметической и геометрической прогрессиями, и второй ряд является логарифмом первого.

Это означает, что при наличии 64-х возможных исходов, когда, например, мы хотим узнать, на какую из 64-х клеточек шахматной доски пал выбор, мы получаем количество информации, равное lg264, т. е. шести. Иными словами, чтобы определить, какое из шестидесяти четырех равновероятных событий произошло, нам необходимо последовательно произвести шесть операций выбора из двух.



Как это происходит, показано на рис. 2, причем для простоты число возможных случаев сокращено до восьми, если имеется восемь непредсказуемых, так как они все равновероятны, возможных исходов, то определение одного из них потребует трех последовательных операций выбора. Эти операции выбора обозначены буквами. Например, чтобы идентифицировать пятый случай, нужно три раза произвести выбор в точке А между В1 и В2, в точке В2 между С3 и С4 и в точке С3 выбрать между пятым и шестым случаями. И так как речь шла об идентификации одного случая из восьми возможных, то


Log28 = 3.


В теории информации единицей информации, или битом (от «binary digit», т. е. «бинарный сигнал»), называют информацию, получаемую при выборе из двух равновероятных возможностей. Следовательно, если идентифицируется один из восьми случаев, мы получаем три бита информации, если один из шестидесяти четырех – то шесть битов.

При помощи бинарного метода определяется один из любого возможного числа случаев – достаточно последовательно осуществлять выбор, постепенно сужая круг возможностей. Электронный мозг, называемый цифровым, или дигитальным, работая с огромной скоростью, осуществляет астрономическое число операций выбора в единицу времени. Напомним, что и обычный калькулятор функционирует за счет замыкания и размыкания цепи, обозначенных 1 и о, соответственно; на этой основе возможно выполнение самых разнообразных операций, предусмотренных алгеброй Буля.


III. 2. Характерно, что в новейших лингвистических исследованиях обсуждаются возможности применения метода бинарных оппозиций при изучении вопроса о возникновении информации в таких сложных системах, как, например, естественный язык[21].

Знаки (слова) языка состоят из фонем и их сочетаний, а фонемы – это минимальные единицы звучания, обладающие дифференциальными признаками, это непродолжительные звучания, которые могут совпадать или не совпадать с буквами или буквой алфавита и которые сами по себе не обладают значением, но, однако, пи одна из них не может подменять собой другую, а когда такое случается, слово меняет свое значение. Например, по‑итальянски я могу по‑разному произносить «e» в словах «bene» и «cena», но разница в произношении не изменит значения слов. Напротив, если, говоря по‑английски, я произношу «i» в словах «ship» и «sheep» (транскрибированных в словаре соответственно «∫ip» и «∫i: p») по‑разному, налицо оппозиция двух фонем, и действительно, первое слово означает «корабль», второе – «овца». Стало быть, и в этом случае можно говорить об информации, возникающей за счет бинарных оппозиций.


III. 3. Вернемся, однако, к нашей коммуникативной модели. Речь шла о единицах информации, и мы установили, что, когда, например, известно, какое событие из восьми возможных осуществилось, мы получаем три бита информации. Но эта «информация» имеет косвенное отношение к собственно содержанию сообщения, к тому, что мы из него узнали. Ведь для теории информации не представляет интереса, о чем говорится в сообщениях, о числах, человеческих именах, лотерейных билетах или графических знаках. В теории информации значимо число выборов для однозначного определения события. И важны также альтернативы, которые – на уровне источника – представляются как со-возможные. Информация – не столько то, что говорится, сколько то, что может быть сказано. Информация – это мера возможности выбора. Сообщение, содержащее один бит информации (выбор из двух равновероятных возможностей), отличается от сообщения, содержащего три бита информации (выбор из восьми равновероятных возможностей), только тем, что во втором случае просчитывается большее число вариантов. Во втором случае информации больше, потому что исходная ситуация менее определенна. Приведем простой пример: детективный роман тем более держит читателя в напряжении и тем неожиданнее развязка, чем шире круг подозреваемых в убийстве. Информация – это свобода выбора при построении сообщения, и, следовательно, она представляет собой статистическую характеристику источника сообщения. Иными словами, информация – это число равновероятных возможностей, ее тем больше, чем шире круг, в котором осуществляется выбор. В самом деле, если в игре задействованы не два, восемь или шестьдесят четыре варианта, а п миллиардов равновероятных событий, то выражение


На Facebook В Твиттере В Instagram В Одноклассниках Мы Вконтакте
Подписывайтесь на наши страницы в социальных сетях.
Будьте в курсе последних книжных новинок, комментируйте, обсуждайте. Мы ждём Вас!

Похожие книги на "Отсутствующая структура. Введение в семиологию"

Книги похожие на "Отсутствующая структура. Введение в семиологию" читать онлайн или скачать бесплатно полные версии.


Понравилась книга? Оставьте Ваш комментарий, поделитесь впечатлениями или расскажите друзьям

Все книги автора Умберто Эко

Умберто Эко - все книги автора в одном месте на сайте онлайн библиотеки LibFox.

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

Отзывы о "Умберто Эко - Отсутствующая структура. Введение в семиологию"

Отзывы читателей о книге "Отсутствующая структура. Введение в семиологию", комментарии и мнения людей о произведении.

А что Вы думаете о книге? Оставьте Ваш отзыв.