📚 Hub Books: Онлайн-чтение книгБизнесОбщая теория капитала. Самовоспроизводство людей посредством возрастающих смыслов. Часть первая - А. Куприн

Общая теория капитала. Самовоспроизводство людей посредством возрастающих смыслов. Часть первая - А. Куприн

Шрифт:

-
+

Интервал:

-
+
1 ... 14 15 16 17 18 19 20 21 22 ... 42
Перейти на страницу:
результатов. В процессе разделения деятельности и знаний люди специализировались на тех видах действий, в которых они имели конкурентное преимущество благодаря особенностям среды или своей деятельной силы. Земледелие обособилось от собирательства, ремесло от земледелия. Росла не только сложность вещения, но и общения, и мышления; язык усложнялся, обученные действия становились более важным актом самовоспроизводства по сравнению с инстинктивными, рассудочные — по сравнению с обученными.

2. Сложность смысла

Минимальный субъект и минимальное действие

Увеличение сложности смыслов по мере их эволюции является интуитивно очевидным, однако лишь в середине XX века понятия количества информации и информационной сложности получили строгое обоснование в работах Клода Шеннона и Андрея Колмогорова.

Шеннон ввел понятие информационной энтропии. Энтропия H по Шеннону — это мера неопределенности, непредсказуемости, неожиданности, случайности некоторого сообщения (события, явления). При отсутствии информационных потерь энтропия Шеннона равна количеству информации на символ сообщения. Количество информации определяется неожиданностью появления того или иного сообщения. Применительно к культуре таким сообщением является (контр)факт.

«Согласно этому способу измерения информации, она не присуща самому полученному сообщению; скорее, это функция его отношения к чему-то отсутствующему — огромному множеству других возможных сообщений, которые могли быть отправлены, но не были отправлены. Без ссылки на этот отсутствующий фон возможных альтернатив невозможно измерить объем потенциальной информации сообщения. Другими словами, фон невыбранных сигналов является решающим фактором, определяющим то, что делает принятые сигналы способными передавать информацию. Нет альтернатив = нет неопределенности = нет информации. Таким образом, Шеннон измерял полученную информацию с точки зрения неопределенности, которую она устраняла по отношению к тому, что могло быть отправлено» (Deacon 2013, p. 379).

Таким образом, среднее количество информации H, содержащееся в смыслах, определяется количеством всех имеющихся в культуре (контр)фактов и вероятностью их появления. Энтропия Шэннона H — это показатель сложности общества-культуры в целом. Если мы взглянем на историю человеческих обществ-культур, то мы увидим, что их сложность последовательно росла: от скудного набора первобытных смыслов (простейшие каменные орудия, родоплеменная община, элементарный язык, причинные мини-модели, анимизм и фетишизм) к сложному арсеналу смыслов, характерных для аграрных обществ (домашний скот и сельскохозяйственный инвентарь, полисы и империи, письменность и литература, античная и арабская наука, мировые религии).

В ходе культурной эволюции росла как сложность общества-культуры в целом, так и сложность отдельных смыслов. Как мы уже сказали, сложность отдельно взятого смысла определяется количеством фигур, минимально необходимых для воспроизводства этого смысла. Предположим, что у нас есть смысл s, который можно представить как строку из некоторого количества фигур. Длина этой строки — L(s). В таком случае сложность смысла s определяется длиной самой короткой программы s*, которая может описать этот смысл. Длину программы s* называют алгоритмической энтропией K(s), или сложностью по Колмогорову:

«Центральным понятием алгоритмической теории информации является понятие энтропии индивидуального объекта, называемое сложностью объекта (по Колмогорову). Интуитивно под этим понимается минимальное количество информации, необходимое для восстановления данного объекта» (Виноградов и др. 1977–1985, т. 1, с. 220).

Мы будем называть программу s* минимальным, или наименьшим действием, необходимым для воспроизводства смысла s. Смыслы могут иметь различную сложность в зависимости от величины минимального действия, необходимого для их воспроизводства. Например, строку asdfghjkl можно описать лишь ею самой. Длина этой строки — 9 неповторяющихся фигур. Однако если строка s имеет шаблон — пусть даже неочевидный — то такую строку можно описать минимальным действием s*, намного более коротким, чем сама s. Например, строку afjkafjkafjkafjk можно описать намного более короткой строкой afjk, повторенной необходимое число раз.

«Различие между простотой и сложностью вызывает значительные философские трудности в применении к утверждениям. Но, похоже, существует довольно простой и адекватный способ измерения степени сложности различных видов абстрактных шаблонов. Минимальное количество элементов, из которых должен состоять экземпляр шаблона, чтобы продемонстрировать все характерные атрибуты рассматриваемого класса шаблонов, по-видимому, обеспечивает однозначный критерий» (Hayek 1967, p. 25).

Сложность отдельного смысла определяется величиной минимального действия, необходимого для воспроизводства этого смысла. Человек как продукт культуры также является смыслом. Возрастание культурного опыта, который необходимо передать, означает возрастание сложности человека. С каждым поколением возрастает минимальное действие, необходимое для воспроизводства человека как культурного существа, возрастает сложность обучения.

Сложность минимального действия сходится к энтропии его источника, то есть минимального субъекта. Как мы видели выше, сложность общества-культуры определяется количеством альтернативных смыслов (контрфактов), которые оно может генерировать. Вместе с тем, сложность общества-культуры определяется величиной минимального действия, необходимого для его воспроизводства. Энтропия общества-культуры как источника сообщений, или (контр)фактов, приблизительно равна средней сложности всех возможных сообщений от этого источника:

«Энтропия Шеннона — свойство источника информации. Есть много возможных сообщений, каждое со своей вероятностью. Энтропия измеряет размер этой вселенной возможностей. Напротив, алгоритмическая энтропия имеет смысл для любой конкретной строки битов. Сами строки могут иметь большее или меньшее информационное содержание в зависимости от того, требуют ли они более длинного или более короткого описания. Две энтропии связаны друг с другом. Для источника, который производит двоичные последовательности, энтропия Шеннона является приблизительным средним значением алгоритмической энтропии, если взять среднее значение по всем возможным последовательностям, которые может создать источник: H ≈ ave(K). Энтропия Шеннона — это способ оценки алгоритмической энтропии в среднем» (Schumacher 2015, p. 231).

Иными словами, сложность смысла, измеренная в культурных битах, в среднем сходится к энтропии человека как источника (контр)фактов. Как говорил Протагор, «мера всех вещей — человек, существующих, что они существуют, а несуществующих, что они не существуют» (Платон 1990–1994, т. 2, с. 203). Минимальный субъект — это мера сложности человека, то есть неопределенности, непредсказуемости, неожиданности, случайности его произведенных и непроизведенных действий. Минимальный субъект является и источником, и продуктом минимального действия, и вместе с самим минимальным действием образует минимальный смысл.

Историческое возрастание сложности общества-культуры проявляется и в увеличении количества (контр)фактов, которые оно может генерировать, и в увеличении минимального действия,

1 ... 14 15 16 17 18 19 20 21 22 ... 42
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?