Схема 1. Коммуникативный процесс между двумя механизмами 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Схема 1. Коммуникативный процесс между двумя механизмами



Всего этого достаточно, чтобы код мог сигнализировать не только об уровне опасности. Можно выделить ряд уровней, последовательно описывающих переход от полной безопасности к состоянию тревоги, обозначая уровни ниже нулевой отметки -3, -2, -1 и т. д., и рад уровней выше нулевой отметки 1, 2, 3, от "очень тревожно" до "максимальная опасность", закрепив за каждым определенную комбинацию букв путем введения соответствующих программ в передающее и прини­мающее устройства.

II.4.

Каким же образом передается сигнал в кодах такого типа? Принцип их действия — выбор из двух возможностей, обозначим его как оппозицию "да " и "нет ". Лампа или горит, или не горит (есть ток в цепи, нет тока). Суть дела не меняется, если сигнал передается как-то иначе. Во всех подобных случаях имеется бинарная оппозиция, мак­симальная амплитуда колебания от 1 к 0, от "да" к "нет", от размыка­ния к замыканию.

Здесь не обсуждается вопрос о том, является ли метод бинарных оппозиций, позаимствованный, как мы увидим позже, из теории ин­формации, наиболее подходящим способом описания передачи информации и всегда ли и везде передача информации основана на двоичном коде (всякая ли коммуникация, когда бы и где она ни осуществлялась, базируется на последовательном двоичном выборе). Однако то обстоятельство, что все науки, от лингвистики до нейрофи­зиологии, при описании коммуникативных процессов пользуются бинарным методом, свидетельствует о его простоте и экономичности в сравнении с другими.

III. Информация

III.1.

Когда мы узнаем, какое из двух событий имеет место, мы получаем информацию. Предполагается, что оба события равноверо­ятны и что мы находимся в полном неведении относительно того, какое из них произойдет. Вероятность — это отношение числа воз­можностей ожидаемого исхода к общему числу возможностей. Если я подбрасываю монетку, ожидая, орел выпадет или решка, вероятность выпадания каждой из сторон составит 1/2.

В случае игральной кости, у которой шесть сторон, вероятность для каждой составит 1/6, если же я бросаю одновременно две кости, рассчитывая получить две шестерки или две пятерки, вероятность выпадания одинаковых сторон будет равняться произведению про­стых вероятностей, т. e. 1/36.

Отношение ряда событий к ряду соответствующих им возможнос­тей — это отношение между арифметической и геометрической про­грессиями, и второй ряд является логарифмом первого.

Это означает, что при наличии 64-х возможных исходов, когда, например, мы хотим узнать, на какую из 64-х клеточек шахматной доски пал выбор, мы получаем количество информации, равное Lg264, т. e. шести. Иными словами, чтобы определить, какое из шес­тидесяти четырех равновероятных событий произошло, нам необхо­димо последовательно произвести шесть операций выбора из двух.

Как это происходит, показано на рисунке 2, причем для простоты число возможных случаев сокращено до восьми если имеется восемь непредсказуемых, так как они все равновероятны, возможных исхо­дов, то определение одного из них потребует трех последовательных операций выбора. Эти операции выбора обозначены буквами. Напри­мер, чтобы идентифицировать пятый случай, нужно три раза произ­вести выбор в точке А между B1 и В2, в точке B2 между С3 и C4 и в точке СЗ выбрать между пятым и шестым случаями. И так как речь шла об идентификации одного случая из восьми возможных, то

Log28 = 3.

В теории информации единицей информации, или битом (от "bi­nary digit", т. e. "бинарный сигнал"), называют информацию, получае­мую при выборе из двух равновероятных возможностей. Следователь­но, если идентифицируется один из восьми случаев, мы получаем три бита информации, если один из шестидесяти четырех — то шесть битов.

При помощи бинарного метода определяется один из любого воз­можного числа случаев—достаточно последовательно осуществлять выбор, постепенно сужая круг возможностей. Электронный мозг, на­зываемый цифровым, или дигитальным, работая с огромной скорос­тью, осуществляет астрономическое число операций выбора в едини­цу времени. Напомним, что и обычный калькулятор функционирует за счет замыкания и размыкания цепи, обозначенных 1 и О соответст­венно; на этой основе возможно выполнение самых разнообразных операций, предусмотренных алгеброй Буля.

III.2.

Характерно, что в новейших лингвистиических исследовани­ях обсуждаются возможности применения метода бинарных оппози­ций при изучении вопроса о возникновении информации в таких сложных системах, как, например, естественный язык. Знаки (слова) языка состоят из фонем и их сочетаний, а фонемы—это минимальные единицы звучания, обладающие дифференциальными признаками, это непродолжительные звучания, которые могут совпадать или не совпадать с буквами или буквой алфавита и которые сами по себе не обладают значением, но, однако, ни одна из них не может подменять собой другую, а когда такое случается, слово меняет свое значение. Например, по-итальянски я могу по-разному произносить "e" в сло­вах "bene" и "cena", но разница в произношении не изменит значения слов. Напротив, если, говоря по-английски, я произношу "i" в словах

"ship" и "sheep" (транскрибированных в словаре соответственно "∫ip"

и "∫i:p") по-разному, налицо оппозиция двух фонем, и действительно,

первое слово означает "корабль", второе — "овца". Стало быть, и в этом случае можно говорить об информации, возникающей за счет бинарных оппозиций.

III.3.

Вернемся, однако, к нашей коммуникативной модели. Речь шла о единицах информации, и мы установили, что когда, например, известно, какое событие из восьми возможных осуществилось, мы получаем три бита информации. Но эта "информация "имеет косвен-

10 См библиографию в Lepschy, cit, и у Якобсона (Якобсон P. Избранные работы М, 1985)

ное отношение к собственно содержанию сообщения, к тому, что мы из него узнали. Ведь для теории информации не представляет интереса, о чем говорится в сообщениях, о числах, человеческих именах, лоте­рейных билетах или графических знаках. В теории информации зна­чимо число выборов для однозначного определения события. И важны также альтернативы, которые — на уровне источника — представляются как со-возможные. Информация это не столько то, что говорится, сколько то, что может быть сказано. Информация — это мера возможности выбора. Сообщение, содержащее один бит информации (выбор из двух равновероятных возможностей), отлича­ется от сообщения, содержащего три бита информации (выбор из восьми равновероятных возможностей), только тем, что во втором случае просчитывается большее число вариантов. Во втором случае информации больше, потому что исходная ситуация менее определен­на. Приведем простой пример: детективный роман тем более держит читателя в напряжении и тем неожиданнее развязка, чем шире круг подозреваемых в убийстве. Информация — это свобода выбора при построении сообщения, и, следовательно, она представляет собой статистическую характеристику источника сообщения. Иными слова­ми, информация — это число равновероятных возможностей, ее тем больше, чем шире круг, в котором осуществляется выбор. В самом деле, если в игре задействованы не два, восемь или шестьдесят четыре варианта, a n миллиардов равновероятных событий, то выражение

I = Lg2l09n

составит неизмеримо большую величину. И тот, кто, имея дело с таким источником, при получении сообщения осуществляет выбор одной из n миллиардов возможностей, получает огромное множество битов информации. Ясно, однако, что полученная информация пред­ставляет собой известное обеднение того несметного количества воз­можностей выбора, которым характеризовался источник до того, как выбор осуществился и сформировалось сообщение.

В теории информации, стало быть, берется в расчет равновероят­ность на уровне источника, и эту статистическую величину назывют заимствованным из термодинамики термином энтропия 11. И действи­тельно, энтропия некоторой системы — это состояние равновероят­ности, к которому стремятся ее элементы. Иначе говоря, энтропия

11 См Норберт Винер. Кибернетика С. E. Shannon, W. Weaver, The Mathematical Theory of information, Urbana, 1949, Colin Cherry, On Human Communication, cit, A. G. Smith, ed, Communication and Culture (часть I), N Y. 1966; а также работы, указанные к прим. 2 и 4.

связывается с неупорядоченностью, если под порядком понимать сово­купность вероятностей, организующихся в систему таким образом, что ее поведение делается предсказуемым. В кинетической теории газа описывается такая ситуация: предполагается, впрочем, чисто гипоте­тически, что между двумя заполненными газом и сообщающимися емкостями наличествует некое устройство, называемое демоном Мак­свелла, которое пропускает более быстрые молекулы газа и задержи­вает более медленные. Таким образом в систему вводится некоторая упорядоченность, позволяющая сделать прогнозы относительно рас­пределения температур. Однако в действительности демона Максвел­ла не существует, и молекулы газа, беспорядочно сталкиваясь, вырав­нивают скорости, создавая некую усредненную ситуацию, тяготею­щую к статистической равновероятности. Так система оказывается высокоэнтропийной, а движение отдельной молекулы газа непредска­зуемым.

Высокая энтропийность системы, которую представляют собой буквы на клавиатуре пишущей машинки, обеспечивает возможность получения очень большого количества информации. Пример описан Гильбо: машинописная страница вмещает 25 строк по 60 знаков в каждой, на клавиатуре 42 клавиши, и каждая из них позволяет напе­чатать две буквы, таким образом, с добавлением пробела, который тоже знак, общее количество возможных символов составит 85. Если, умножив 25 на 60, мы получаем 1500 позиций, то спрашивается, какое количество возможных комбинаций существует в этом случае для каждого из 85 знаков клавиатуры?

Общее число сообщений с длиной L, полученных с помощью кла­виатуры, включающей С знаков, можно определить, возводя L в сте­пень С. В нашем случае это составит 85 возможных сообщений. Такова ситуация равновероятности, существующая на уровне источ­ника, и число возможных сообщений измеряется 2895-ти значным числом.

Но сколько же операций выбора надо совершить, чтобы иденти­фицировать одно-единственное сообщение? Очень и очень много, и их реализация потребовала бы значительных затрат времени и энер­гии, тем больших, что, как нам известно, объем каждого из возможных сообщений равен 1500 знакам, каждый из которых определяется путем последовательных выборов между 85 символами клавиатуры... По­тенциальная возможность источника, связанная со свободой выбора, чрезвычайно высока, но передача этой информации оказывается весь­ма затруднительной.

12 G Т. Guilbaud, La Cybernétique P U F, 1954

III.4.

Здесь-то и возникает нужда в коде с его упорядочивающим действием. Но что дает нам введение кода? Ограничиваются комби­национные возможности задействованных элементов и число самих элементов. В ситуацию равновероятности источника вводится систе­ма вероятностей: одни комбинации становятся более, другие менее вероятными. Информационные возможности источника сокращают­ся, возможность передачи сообщений резко возрастает.

Шеннон 13 определяет информацию сообщения, включающего N операций выбора из h символов, как I = NLg2 h (эта формула напоми­нает формулу энтропии).

Итак, сообщение, полученное на базе большого количества симво­лов, число комбинаций которых достигает астрономической величи­ны, оказывается высокоинформативным, но вместе с тем и непереда­ваемым, ибо для этого необходимо слишком большое число операций выбора. Но эти операции требуют затрат, идет ли речь об электричес­ких сигналах, механическом движении или мышлении: всякий канал обладает ограниченной пропускной способностью, позволяя осуще­ствить лишь определенное число операций выбора. Следовательно, чтобы сделать возможной передачу информации и построить сообще­ние, необходимо уменьшить значения N и h. И еще легче передать сообщение, полученное на основе системы элементов, число комбина­ций которых заранее ограничено. Число выборов уменьшается, но зато возможности передачи сообщений возрастают.

Упорядочивающая функция кода как раз и позволяет осуществить коммуникацию, ибо код представляет собой систему вероятностей, которая накладывается на равновероятность исходной системы, обес­печивая тем самым возможность коммуникации. В любом случае ин­формация нуждается в упорядочении не из-за ее объема, но потому, что иначе ее передача неосуществима.

С введением кода число альтернатив такого высокоэнтропийного источника, как клавиатура пишущей машинки, заметно сокращается. И когда я, человек знакомый с кодом итальянского языка, за нее сажусь, энтропия источника уменьшается, иными словами, речь идет уже не о 85 сообщениях на одной машинописной странице, обес­печиваемых возможностями клавиатуры, но о значительно меньшем их числе в соответствии с вероятностью, отвечающей определенному набору ожиданий, и, стало быть, более предсказуемом. И даже если

13 Впервые закон сформулирован R.V L. Harthley, Transmission of Information, in "Bell System Tech. I", 1928. См. также, помимо Cherry, cit, Anatol Rapaport, What is Information?,in "ETC", 10, 1953.

число возможных сообщений на страничке машинописного текста неизменно велико, все равно введенная кодом система вероятностей делает невозможным присутствие в моем сообщении таких последо­вательностей знаков, как "wxwxxsdewvxvxc", невозможных в итальян­ском языке за исключением особых случаев металингвистических опи­саний, таких как только что приведенное. Она, эта система, не разре­шает ставить q после ass, зато позволяет предсказать с известной долей уверенности, что вслед за ass появится одна из пяти гласных: asse, assimilare и т.д. Наличие кода, предусматривающего возможность разнообразных комбинаций, существенно ограничивает число воз­можных выборов.

Итак, в заключение дадим определение кода как системы, устанав­ливающей 1) репертуар противопоставленных друг другу символов; 2) правила их сочетания; 3) окказионально взаимооднозначное соот­ветствие каждого символа какому-то одному означаемому. При этом возможно выполнение лишь одного или двух из указанных условий 14.

IV. Код

IV.1.

Все сказанное позволяет вернуться к нашей первоначальной модели. В упоминавшемся водохранилище могут происходить самые разнообразные процессы. Уровень воды в нем может устанавливаться какой угодно. И если бы нужно было описать все возможные уровни, понадобился бы обширный репертуар символов, хотя фактически нас не интересует, поднялась ли вода на один или на два миллиметра или настолько же опустилась. Во избежание этого приходится произволь­но членить континуум, устанавливая дискретные единицы, пригодные для целей коммуникации и получающие статус смыслоразличителей. Допустим, нас интересует, поднялся ли уровень воды с отметки 2 до отметки 1; при этом совершенно неважно, на сколько именно санти­метров или миллиметров уровень воды превышает отметку 2. Помимо уровней 2 и 1 все прочие для нас несущественны, мы их не принимаем во внимание. Таким образом формируется код, т.е. из многочислен­ных возможных комбинаций четырех символов А, В, С и D выделяют­ся некоторые в качестве наиболее вероятных.

14 Так, в нашем примере с механизмом исключается п 3. Получаемым сигналам не соответствует никакое означаемое. (В крайнем случае можно говорить о соответствии лишь для того, кто установил код.)

Например:

 

 

 

 

 

 

 

 

А элементы, лишенные значения и обладаю­щие только дифференциаль­ными признаками АВ= -3 BCD  
  ВС= -2 ACD  
D CD=-1 ABD непредусмотренные комбинации
  АВС=0 AB-CD
В АС=1 A-C-B-D
  BD=2 и т.д.  
С AD=3    

Итак, принимающее устройство должно быть отрегулировано таким образом, чтобы адекватно реагировать только на предусмот­ренные комбинации, пренебрегая всеми прочими как шумом. Ничто, впрочем, не препятствует тому, чтобы, как было сказано, не принятые в расчет комбинации были использованы в случае, если возникнет необходимость более точного расчета уровней, естественно, что при этом изменится и код.

IV.2.

И теперь мы уже можем, говоря об информации как о возмож­ности и свободе выбора, разграничить два значения этого понятия, по форме одинаковых, ведь речь идет об определенной степени свободы выбора, но по существу различных. В самом деле, у нас есть информа­ция источника, которая в отсутствие гидро- и метеосводок, позволяю­щих предсказать повышение или понижение уровня воды, рассматри­вается как состояние равновероятности, вода может достигнуть како­го угодно уровня.

Эта информация корректируется кодом, устанавливающим систе­му вероятностей. В статистическую неупорядоченность источника вносится упорядочивающее начало кода.

Но кроме того, у нас есть также информация кода. И действительно, на основе имеющегося кода мы можем составить семь равновероят­ных сообщений. Код вносит в физическую систему некий порядок, сокращая ее информационный потенциал, но по отношению к кон­кретным сообщениям, которые формируются на его основе, сам код в определенной мере оказывается системой равных вероятностей, уп­раздняемых при получении того или иного сообщения. Отдельное сообщение в его конкретной форме, будучи какой-то определенной последовательностью символов, представляет собой некую оконча-

тельную — ниже мы увидим до какой степени — упорядоченность, которая накладывается на относительную неупорядоченность кода.

При этом нужно отметить, что такие понятия, как информация (противопоставленное "сообщению"), неупорядоченность (противо­поставленное "упорядоченности"), равновероятность (в противовес системе вероятностей) являются все без исключения понятиями отно­сительными. В сравнении с кодом, который ограничивает информа­ционное поле источника, последний обладает известной энтропией, но по сравнению со сформированными на его основе сообщениями сам код тоже характеризуется определенной энтропией.

Порядок и беспорядок понятия относительные, порядок выглядит порядком на фоне беспорядка и наоборот; мы молоды в сравнении с нашими отцами и стары в сравнении с сыновьями; кто-то, считающий­ся в одной системе моральных правил развратником, в другой, менее жесткой, может сойти за образец нравственной чистоты.

IV.3.

Все сказанное имеет смысл при следующих условиях: 1) имеется источник информации и имеется отдельное передающее устройство, в котором, согласно заложенному коду, осуществляется идентификация смыслоразличительных признаков и отсеивание всего того, что не предусмотрено кодом;

2) приемник информации — машина, однозначным образом реа­гирующая на поступающие сообщения,

3) код, на который настроены приемник и передатчик, один и тот же;

4) машина — как передающее, так и принимающее устройства — не в состоянии "усомниться" в правильности кода.

Все, однако, меняется, если эти исходные условия не соблюдены, например:

1) если адресатом сообщений оказывается человек, даже если ис­точник по-прежнему машина (см. A.2.I.IV.);

2) если источник информации — человек. В таком случае источник и передатчик совмещаются (я сам являюсь источником и передатчи­ком информации, которую намереваюсь сообщить кому-то. Более того, часто совпадают также источник и код в том смысле, что един­ственной информацией, которой я располагаю, оказывается система равновероятностей, навязываемая мне используемым мной кодом (см. A.2.V.);

3) предполагается, что возможны случаи, когда либо отправитель, либо адресат могут усомниться в правильности кода (см. А.З.).

Как мы увидим ниже, принятие этих условий означает переход от мира сигнала к миру смысла.

 

Мир смысла

I. Значение "значения". Денотация и коннотация

I.1.

Предположим, что адресат сообщения, информирующего об уровне воды в водохранилище, не механизм, а человек. Зная код, он отдает себе отчет в том, что последовательность ABC означает нулевую отметку, тогда как прочие сигналы указывают на то, что вода находится на любом другом уровне от наименее до наиболее опасного

Итак, вообразим себе, что человек получает сигнал ABC. В этом случае ему становится ясно, что вода достигла нулевой отметки (опас­ность), но этим дело не кончается. Например, человек может встре­вожиться. Эта тревога родилась не сама по себе, в какой-то мере она связана с содержанием сообщения. И в самом деле, последователь­ность ABC, феномен чисто физического порядка, сообщает не только то, что предусмотрено кодом (вода достигла нулевой отметки), или денотативное значение, но несет дополнительное значение — конно­тацию, сигнализируя об опасности. С машиной такого не бывает: соответствующим образом настроенный механизм, получив сообще­ние ABC, реагирует согласно заложенной программе, ему доступна информация, но значение ему недоступно. Механическое устройство не знает, что стоит за последовательностью сигналов ABC, оно не понимает ни что такое нулевая отметка, ни что такое опасность. Машина получает запрограммированное количество бит информа­ции, необходимое для надежной передачи сообщения по каналу связи, и адекватно реагирует.

Когда мы имеем дело с машиной, мы не выходим за рамки кибер­нетики, а кибернетику интересуют только сигналы Но если в комму­никации участвует человек, то мы должны говорить не о мире сигнала, но о мире смысла. С этого момента речь должна идти уже о процессе означивания, ведь в этом случае сигнал — это не просто ряд дискрет­ных единиц, рассчитываемых в битах информации, но, скорее, знача­щая форма, которую адресат-человек должен наполнить значением.

I.2.

А теперь нам следует определить содержание термина "значе­ние" по крайней мере в том смысле, в котором он будет использовать-

ся в этой книге 15. А для этого прежде всего надо избавиться от вредной привычки путать означаемое с референтом.

Обратимся в связи с этим к известному треугольнику Огдена и Ричардса 16, изображенному ниже.

Пусть символом в данном случае будет знак естественного языка, например, слово "собака". Связь между словом и вещью, на которую оно указывает, в общем, условна и никак не мотивирована природны­ми свойствами собаки. В английском языке стояло бы не "собака", а dog, и ничего от этого бы не поменялось. Отношение между символом и вещью составляет то, что называется референцией, или, как говорит Ульманн17, "информацией, которую имя сообщает слушателю". Это определение пока что нас вполне устраивает, поскольку оно покрыва­ет собой то, что одни называют понятием, другие — мысленным пред­ставлением, третьи — условиями употребления того или иного знака и т. д. Во всяком случае, очевидно, что в то время как связь между символом и референтом остается сомнительной, при том что ее про­извольный внеприродный характер сомнению не подлежит, связь, устанавливающаяся между символом и референцией, непосредствен­на, взаимна и обратима. Тот, кто говорит слово "собака", думает о собаке, а у того, кто это слово слышит, рождается в голове образ собаки.

15 Из обширной библиографии на тему см Adam Schaff, Introduzione alla semantica, Roma, 1965, Pierre Guiraud, La semantica, Milano, 1966, Tullio de Mauro, Introduzione alla semantica, Bari, 1965, Stephen Ullmann, La semantica, Bologna, 1966, W VO. Quine, Il problema del significato, Roma, 1966, L Antal, Problemi di significalo, Milano, 1967

16 C К Ogden, I. A Richards, Il significato del significato, Milano, 1966.

17 См. всю главу 3, Op cit, pp 90—130 В частности анализ воззрений Блумфилда (Language, N Y, 1933)

1.3.

Спорам об отношениях между символом, референтом и рефе­ренцией нет конца. Скажем по этому поводу только, что, по сути дела, дискуссии о референте не подлежат ведению семиологии 18. Те, кто занимается проблемой референта, хорошо знают, что символа из ре­ферента не выведешь, поскольку бывают символы, у которых есть референция, но нет референта (например, слово "единорог" отсылает к несуществующему фантастическому животному, что нисколько не мешает тому, кто слышит это слово, прекрасно понимать, о чем идет речь); бывают также символы с разным значением, а референт у них один: всем известен пример из астрономии с утренней и вечерней звездой, относительно которых древние полагали, что утренняя звез­да это одно, а вечерняя это другое, между тем, как установила совре­менная астрономия, оба значения отсылают к одному и тому же референту, точно так же два выражения, такие как "мой отчим" или "отец моего сводного брата", относятся к одному и тому же референ­ту, хотя значения их не совпадают, они принадлежат разным контекс­там и эмоционально окрашены по-разному. В некоторых семантических теориях денотатом, или означаемым некоего символа, считается целый класс вещей, существующих в действительности и охватывае­мых данным представлением (слово "собака" относится ко всему классу собак), в то время как коннотацией называют совокупность качеств, приписываемых собаке (набор тех свойств, по которым зоо­логи отличают собаку от прочих четвероногих млекопитающих). В таком случае, получается, что денотация это то же самое, что и экстенсивность понятия, и тогда коннотация совпадает с его интен­сивностью 19.В нашем исследовании мы не будем пользоваться терми­нами денотация и коннотация в этом значении.

1.4.

Наличие или отсутствие референта, а также его реальность или нереальность несущественны для изучения символа, которым пользует­ся то или иное общество, включая его в те или иные системы отноше­ний. Семиологию не заботит, существуют ли на самом деле единороги

18 Среди авторов, напротив, особенно выделяющих проблему референта, помимо Блумфилда, упомянем исследователей материалистической ориентации (мы не говорим "марксистской", т. к. их позиция определена "Материализмом и эмпириокритицизмом" Ленина), таких как уже цит. Шафф и Л. В. Резников (L. О. Reznikov, Semiotica e marxismo. Milano, 1967).

19 По поводу такого использования терминов см., в частности, A. Pasquinelli, Linguagio. scienza e filosofia, Bologna, 2a ed., 1964 (приложение А), где сравниваются и обсуждаются позиции Рассела, Фреге, Карнапа, Куайна, Черча. См. также Ludovico Geymonat, Saggi di filosofia neorazionalistica, Torino, 1953, (Исчерпывающая библиография у Шаффа).

или нет, этим вопросом занимаются зоология и история культуры, изучающая роль фантастических представлений, свойственных опре­деленному обществу в определенное время, зато ей важно понять, как в том или ином контексте ряд звуков, составляющих слово "едино­рог", включаясь в систему лингвистических конвенций, обретает свойственное ему значение и какие образы рождает это слово в уме адресата сообщения, человека определенных культурных навыков, сложившихся в определенное время.

Итак, семиологию интересует только левая сторона треугольника ОгденаРичардса. Зато она рассматривает ее с большим тщанием, отдавая себе отчет в том, что здесь-то и рождается все многообразие коммуникативных явлений. Так, идя от значения к символу, мы полу­чаем отношения именования (ономастика), когда какие-то смыслы привязываются к какому-то звуковому образу, и напротив, взяв точ­кой отсчета звучание, мы получаем отношения семасиологического порядка (какой-то звуковой образ получает определенное значе­ние). К тому же, как мы увидим далее, отношения между символом и его значением могут меняться: они могут разрастаться, усложняться, искажаться; символ может оставаться неизменным, тогда как значе­ние может обогащаться или скудеть. И вот этот-то безостановочный Динамический процесс и должно называть "смыслом". Именно в таких значениях, определив их раз и навсегда, мы и намерены упот­реблять соответствующие термины, памятуя о том, что некоторые авторы толкуют их по-другому.

1.5.

Напомним, однако, ради более точного словоупотребления о некоторых разграничениях, введенных соссюровской лингвистикой, которые представляются нам весьма уместными в семиологическом исследовании (и действительно, цель предлагаемых читателю глав как раз и состоит в том, чтобы показать пригодность соссюровских кате­горий не только к исследованию речевой деятельности, но также и визуальных кодов).

Соссюр определяет лингвистический знак как неразрывное един­ство означающего и означаемого, сравнивая их с двумя сторонами одного листа бумаги: "лингвистический знак объединяет не вещь и имя,

20 Кроме Ульманна, cit, см. также: Klaus Heger, Les bases méthodologiques de l'onomasiologie et du classement par concepts, in "Travaux de linguistique et de litt", III, 1, 1965; с анализом работ Бальдингера, Вейнрейха, Огдена и Ричардса, Косериу, Потье и др.

21 Например, Ульманн пользуется этими терминами совсем не так: вершина треугольника для него "смысл", тогда как "означаемым", сравнимым с "meaning" и понимаемым как непрестанно расширяющийся процесс означивания, у него оказывается вся левая сторона треугольника. Мы предпочитаем держаться более принятой среди французским семиотиков терминологии.

но понятие и акустический образ". Означаемое это не вещь (означае­мое "собака" это не та собака, которую изучает зоология), и означающее это не ряд звучаний, составляющих имя (звукоряд "собака", изучаемый фонетикой и регистрируемый с помощью электромагнитной ленты). Оз­начающее — это образ этого звукоряда, в то время как означаемое это образ вещи, рождающийся в уме и соотносящийся с другими такими же образами (например, дерево, arbor, tree, baum и т. д.)

I.6.

Связь означающего и означаемого произвольна, но навязанная языком, который, как мы увидим, является кодом, она не может быть изменена по усмотрению говорящего. Напротив, именно необходи­мость подчиниться коду помогает уловить разницу между означае­мым и понятием, умственным представлением, смешение которых и вызвало нарекания разного рода критиков соссюровской лингвисти­ки, считавших это неразличение опасной уступкой интеллектуализ­му. И по мере выработки более точного определения слову "код", мы также постараемся избежать отождествления означаемого с привы­чными операциями, производимыми над означающим (этот более эм­пирический подход позволяет избежать гипостазирования означаемо­го, представления его в виде некой платоновской сущности, но он также не свободен от недостатков). Означаемое уместно определить как то, что благодаря коду вступает в семасиологические отношения с означающим. Иными словами, благодаря коду определенное означаю­щее начинает соотноситься с определенным означаемым. И если потом это означаемое принимает в голове у говорящего форму поня­тия или же воплощается в определенных навыках говорения, то это касается таких дисциплин, как психология и статистика. Парадок­сальным образом, когда семиология, кажется, вот-вот определит оз­начаемое, в тот самый миг она рискует изменить самой себе, превра­тившись в логику, философию или метафизику. Один из основателей науки о знаках Чарльз Сандерс Пирс пытался уйти от этой опасности, введя понятие "интерпретанты", на котором следует остановиться подробнее24.

22 Ferdinand De Saussure, Cours de linguistique générale, Paris, 1915. Фердинанд де Соссюр Курс общей лингвистики. — В кн.: Соссюр Ф. Труды по языкознанию. М., 1977. С. 99 (как известно, книга построена на основе курсов, прочитанных с 1906 по 1911 г., ит. перевод под ред. Туллио де Мауро, Ban, 1977).

23 См., к примеру, замечание Огдена и Ричардса, op. cit., гл. 1.

24 Работы по семиотике Чарльза Сандерса Пирса объединены в Collected Papers of C.S P., 1931, 1936. В связи с трудностями реконструирования концепции Пирса, отсылаем читателя ко вполне удовлетворяющей целям нашего исследования работе Нинфы Боско, Nynfa Bosco, La filosofia pragmatica di Ch S Peirce, Torino, 1959; (см. также Огден и Ричарде, op. cit, Прил. Д. и М. Бензе, op. cit., где.однако, понятие "интерпретанты" поглощено понятием "интерпретатора").

1.7.

Пирс представлял себе знак — "что-то, способное для кого-то в некоторых ситуациях быть заместителем чего-то иного" — пример­но так же, как Огден и Ричарде, а именно в виде треугольника, осно­вание которого составляют символ, или репрезентамен, соотнесенный с обозначаемым объектом, в вершине же треугольника находится интерпретанта, которую многие склонны отождествлять с означае­мым или референцией. Важно подчеркнуть, что интерпретанта это не интерпретатор, т.е. тот, кто получает и толкует знак, хотя Пирс не всегда достаточно четко различает эти понятия. Интерпретанта это то, благодаря чему знак значит даже в отсутствие интерпретатора.

Можно было бы принять интерпретанту за означаемое, ведь ее определение гласит: "то, что знак рождает в уме интерпретатора", но с другой стороны в ней усматривают определение репрезентамена (коннотация-интенсивность). Более перспективной представляется гипотеза, согласно которой интерпретантаэто иной способ пред­ставления того же самого объекта. Иначе говоря, чтобы установить, какова интерпретанта того или иного знака, нужно обозначить этот знак с помощью другого знака, интерпретантой которого в свою очередь будет следующий знак и т. д. Так начинается непрерывный процесс семиозиса, и это единственно возможный, хотя и парадок­сальный способ обоснования семиотики своими собственными сред­ствами. Языком в таком случае следовало бы называть систему, кото­рая объясняет сама себя путем последовательного разворачивания все новых и новых конвенциональных систем 25.

Казалось бы, не так уж трудно разорвать этот круг, разве не полу­чим мы означаемое слова "собака", указав пальцем на какую-либо собаку? Но даже если не принимать во внимание того, что значение слова "собака" может обогащаться и модифицироваться от культуры к культуре (для того, чтобы определить значение слова "корова", житель Индии, как и мы, укажет на корову, но для него значение этого слова неизмеримо богаче, чем для нас), то в случае таких слов, как "красота", "единорог", "однако", "Бог", не знаешь, на что и указы­вать. Единственный способ объяснить значение этих слов (описать означаемое соответствующих означающих), не прибегая к платонов­ским идеям, мысленным образам и навыкам словоупотребления, это

25 Это объясняет, в каком смысле (см. по этому поводу Барт, cit.) не лингвистику следует считать ответвлением семиологии, но семиологию — отраслью лингвистики, ибо невербальные знаки получают значения только благодаря словесному языку. Вполне возможно, что в перекличке различных интерпретант какого-либо знака, словесное определение получает наибольший вес. Однако, интерпретантой словесного означающего вполне может служить фигуративный знак



Поделиться:


Последнее изменение этой страницы: 2016-06-26; просмотров: 211; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.145.191.169 (0.092 с.)