Главная Случайная страница


Полезное:

Как сделать разговор полезным и приятным Как сделать объемную звезду своими руками Как сделать то, что делать не хочется? Как сделать погремушку Как сделать так чтобы женщины сами знакомились с вами Как сделать идею коммерческой Как сделать хорошую растяжку ног? Как сделать наш разум здоровым? Как сделать, чтобы люди обманывали меньше Вопрос 4. Как сделать так, чтобы вас уважали и ценили? Как сделать лучше себе и другим людям Как сделать свидание интересным?


Категории:

АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника






Фрактальная монадология





 

Монадой мы будем называть кортеж с заданным масштабными преобразованиями.

Этот кортеж будем называть затравкой монады.

 

Будем обозначать монады в честь автора "Монадологии" буквой L.

 

Пример.

Запись И L И#ИИИЛЛ, Л#ЛЛИИ означает монаду с затравкой в виде кортежа <И> и заданными масштабными преобразованиями для двух кортежей И#ИИИЛЛ, Л#ЛЛИИ.

 

2.6.1 Готфрид Вильгельм Лейбниц (1646 - 1716)

 

Кортеж-затравку будем называть реальным кортежем. Оставшиеся кортежи, на которых нам надо задавать преобразования, будем называть виртуальными.

Например, если кортеж-затравка в ЛКР <ИЛ>, то виртуальными кортежами будут кортежи <ЛИ>, <ИИ>, <ЛЛ>. Масштабное преобразование монады надо задавать для всей совокупности реальных и виртуальных кортежей, общее количество которых равно R=kn (см.2.5).

Монада, при устремлении преобразований в бесконечность, преобразуется в логический ряд - частный случай логического фрактала, с которым можно проделывать все операции, описанные выше. Таким образом, монада, наряду с обратной связью, может быть генератором логического ряда.

 

Пример.

Рассмотрим монаду И L И#ИЛ, Л#ИЛ.

Получаем последовательность кортежей:

 

 

И

ИЛ

ИЛИЛ

ИЛИЛИЛИЛ

ИЛИЛИЛИЛИЛИЛИЛИЛ

ИЛИЛИЛИЛИЛИЛИЛИЛИЛИЛИЛИЛИЛИЛИЛИЛ

 

В результате устремления этой процедуры к бесконечности, получим ИРЛ.

Монадология – решение прямой и обратной задачи – задачи по конструкции (реконструкции) монады.

Прямая задача – описать получившийся логический ряд с заданной затравкой-кортежем и масштабным преобразованием. Рассмотреть миры затравок и миры масштабных преобразований по определенным параметрам и описать получившиеся ряды. Исследовать их на тривиальность и самоподобие – по аналогии с логическими рядами.

Обратная задача – по заданному ряду или кортежу установить затравку-кортеж и масштабное преобразование.

 

2.7 Тезис о построении логического фрактала через два типа обратных связей

 

Вернемся опять к машине обратной связи, рассмотренной в разделе 1.6.

Проводя аналогии между этой моделью и описанными процедурами построения логических фракталов, можно увидеть то, что для построения логического ряда необходимо различать по крайней мере два типа обратных связей.

Первый тип обратной связи, описанный в 1.6, применяется для начальных условий и служит механизмом генерации логического ряда. Назовем эту связь итерационной обратной связью. Согласно доказанной нами теореме, эта обратная связь всегда сходится либо к аттрактору первого рода, либо к аттрактору второго рода.

Таким образом, можно сказать, что для этой обратно связи всегда найдется масштаб, на котором сгенерированный обратной связью ряд преобразуется с некоторым правым сдвигом в вырожденный ряд. Говоря иначе, итерационная обратная связь с единичной вероятностью всегда образует ряд с повторяющимся на бесконечности кортежем.

Значит, итерационная обратная связь является отрицательной – она всегда сходится к какому-то кортежу.

Второй тип обратной связи применяется для затравки – логического ряда, к которому применяются масштабные преобразования. То есть, масштабные преобразования тоже могут быть интерпретированы в терминах обратной связи. Назовем эту связь масштабной обратной связью.

Эта обратная связь может быть положительной и генерировать логический фрактал. В связи с этим мы можем сформулировать тезис о построении логического фрактала:

Любой логический фрактал может быть построен как совокупность итерационной и масштабной обратной связи.

Этот тезис можно использовать в качестве общего определения логического фрактала.

 

2.8 Количественные характеристики логического фрактала

 

2.8.1 Энтропия и кортежная размерность

Для оценки сложности и скорости устремления количества масштабных кортежей ряда к бесконечности введем соответственно понятия энтропии и кортежной размерности логического ряда.

Мы уже знаем, что на масштабе с разрешением n в k-значной логике возможно К= kn различных кортежей.

Количество различных кортежей – это сложность ряда. Так как степенная зависимость велика для количественной оценки, введем, по аналогии с термодинамической энтропией, определение возможной энтропии логического ряда на заданном масштабе (W):

W = logk K, (2.8.1.1)

Подставляя значение К, получаем: W = n logk k = n.

При увеличении разрешения масштаба, возможная энтропия логического ряда линейно увеличивается.

Однако логические фракталы демонстрируют гораздо меньшее разнообразие кортежей. Мало того, количество различных кортежей часто оказывается независимым от масштаба.

В качестве примера можно привести ЛРЛ и ИРЛ которые демонстрируют либо один, либо два различных кортежа на всех масштабах.

Ситуация удивительно напоминает ситуацию с природными структурами – вместо комбинирования новых и новых возможных структур-кортежей, природа "ленится" создавать новые структуры на новых масштабах. Например, вихревые структуры встречаются как на микро-масштабах (атомные и молекулярные структуры) мезо-масштабах (турбулентность воды или облаков) так и на мега-масштабах (спиральные галактики). Возможно, эта природная "лень" по производству новых форм лежит в основе самоподобия природных фракталов.

Такая "лень" присуща и знаковым системам – системам из слов конечной длины. Из-за того, что в системах реализуются не все возможные, а только ограниченные слова, в них образуется информация, в противовес энтропии всех возможных состояний.

Илья Пригожин и Грегуар Николис[20] сравнили марковский процесс и хаотический процесс типа аттрактора Рёсслера с точки зрения вероятности наличия тех или иных последовательностей состояний. Их результаты можно интерпретировать как исследование логического ряда на предмет наличия тех или иных кортежей.

Напомним, что марковским называется процесс с дискретным временем у которого есть марковское свойство – свойство отсутствия последствий: состояние системы в настоящий момент премени t0 однозначно определяет распределение вероятностей будущего развития при t>t0 и информация о прошлом поведении процесса до момента t0 не влияет на это распределение.

Логический ряд можно представить как марковский процесс, если марковским свойством будет обладать вероятность появления логического значения на некоторой итерации.

Николис и Пригожин рассмотрели марковский процесс, удовлетворяющий закону больших чисел и оценили число кортежей, превышающих некоторую заданную вероятность.

На примере создания биополимера, авторы рассмотрели случай, когда все кортежи аминокислот равновероятны. Они к выводу о том, что описание возникновения структуры биополимера неадекватно с точки зрения гипотезы равновероятности возникновения последовательностей аминокислот с фиксированной длиной. Всегда существуют выделенные последовательности аминокислот, формирующих биополимер.

Этот пример является дополнительной иллюстрацией "лени" природы, отбирающей из всех возможных комбинаций только ограниченное количество возможностей.

Рис 2.8.1 Илья Романович Пригожин (род. 1917) – бельгийский химик русского происхождения, лауреат Нобелевской премии по химии (1977 г.) за исследование диссипативных структур, образующихся в открытых системах.

 

Николис и Пригожин рассмотрели аттрактор Рёсслера как хаотическую последовательность нахождения системы в трех состояниях X,Y, Z:

ZYXZXYXZXYXZYXZXYXZYXZYXZXZYXZYXZXYXZYX…

Далее они переписали эту последовательность c помощью гиперсимоволов (кортежей) - a = ZYX, b = ZXYX, g=ZX:

abbabaagaaba…

Далее авторы посчитали условные вероятности возникновения последовательностей (кортежей) с различной длиной на различных масштабах и показали, что появление кортежей не равновероятно. Это позволяет говорить о неслучайности процедуры, генерирующей рассматриваемый процесс.

Только на масштабе с разрешением пять аттрактор Рёсслера можно схематизировать марковским процессом.

Анализируя последовательность, генерируемую странным аттрактором, Николис и Пригожин замечают:

"При ближайшем рассмотрении статистических характеристик таких последовательностей выясняются некоторые удивительные особенности. Например, из всех возможных 37 последовательностей семисимвольной длины, которые можно построить на X, Y, Z, в динамике реализуются только 21. Более того, примерно для половины из них условная вероятность некоторого символа при условии, что заданы пять предыдущих символов, оказывается равной единице. Следовательно, всё выглядит так, как если бы в систему были встроены "грамматические правила", автоматически выполняемые в результате динамики."[21]

Для оценки только тех кортежей, которые реализовались в данном ряде на данном масштабе j, введем представление о масштабных кортежах (МCj). Для ЛРЛ и ИРЛ MCj=2 при нечетных j и МCj=1 на четных масштабах.

Реализованные кортежи являются информационной характеристикой логического ряда, описывая возникшую структуру.

Можно представить информацию через вероятность появления кортежа в ряде. Если в ряде присутствуют все возможные на масштабе кортежи, то информация в таком ряде равна нулю, а энтропия максимальна.

Введем определение масштабной информации IМj:

j = Р (МCj) logk Р(МCj) (2.8.1.2)

Р (МCj) – вероятность возникновения масштабных кортежей, которую можно оценить через отношение числа реализовавшихся масштабных кортежей за s итераций к числу всех возможных кортежей на этом масштабе. Ясно, что s должно быть достаточно большим.

Информация может меняться в зависимости от масштаба рассмотрения – например, у ИРЛ на масштабе 1 информация равна 0, а на других масштабах – нет.

Дадим определение накопленной на f масштабах информации IS:

IS= j (2.8.1.3)

Дадим определение накопленного на разных масштабах числа кортежей М:

М = МСj (2.8.1.4)

Ясно, что при наличии самоподобия ряда М и IS стремятся к бесконечности при устремлении к бесконечности f. Однако скорости устремления к бесконечности накопленной информации и накопленной энтропии разные.

Если рассматриваемый нами ряд обладает фрактальной структурой, то стремление М к бесконечности можно аппроксимировать степенным законом:

М(n) µ nD (2.8.1.5)

Разрешение масштаб

а n – характерная длина кортежа на которой мы "рассматриваем" масштаб выступает в данном случае аналогом покрытия бесконечного множества значений логического ряда, образующего меру.

Представим логический ряд как ряд кортежей длиной n. Кортежу с номером i сопоставим вероятность P i, того, что этот кортеж будет принадлежать некоторому ранее заданному и конечному множеству кортежей или иметь какое-либо свойство (например, свойство принадлежать множеству реализовавшихся на данном масштабе кортежей). Далее можно ввести набор величин D q, вычисляемых для разных значений q:

D q = ,

где суммирование ведется по всем кортежам.

D q будет аналогом обобщенных размерностей.

 

В следующем подразделе постараемся формализовать интуиции размерности логического ряда более точно.

 

 

2.8.2 Аналог Хаусдорфовой размерности для логического ряда

 

Предположим, что рассматриваемый логический ряд есть результат бесконечного последовательного масштабного преобразования кортежа A0:

А1 = А0, Аj = A j-1 = … = j A0 (2.8.2.1)

Рассмотрим изменение масштаба при увеличении разрешения масштаба n в a раз:

Ai (n) = Ai (n/a) (2.8.2.2)

Рассмотрим внутреннюю характеристику кортежа L – например, количество значений И на масштабе А:

L ( Aj+1) = L ( Aj) (2.8.2.3)

В зависимости от вида внутренней характеристики можно типологизировать различные размерности.

Если у логического ряда существует подобие:

= , (2.8.2.4)

то можно записать между L (Aj) и L ( Aj) в виде:

L ( Aj) = ad L (Aj), (2.8.2.5)

где d – некоторая степень – аналог размерности Хаусдорфа-Безиховича, определяемая в пределе:

d = (2.8.2.6)

 

2.8.3 Аналогия с броуновским движением

Рассмотрим обратную связь a=И, 0.5ai+1: ai. Процесс эквивалентен бросанию монеты и генерирует логический ряд со случайным распределением значений.

Представим этот ряд как движение броуновской частицы, в котором перемещение частицы на расстояние +x можно интерпретировать как И, а перемещение на -x как Л.

При случайном процессе, перемещение броуновской частицы x задается гауссовым или нормальным распределением вероятностей:

р(x,t) = exp (- ) (2.8.3.1)

Это означает, что на каждом интервале длительностью t изменение параметра x моделируется случайным образом, и вероятность того, что x заключено между x и x+dx, равна p(x,t)dx. Последовательность значений {x i } есть набор независимых гауссовых случайных чисел с дисперсией

áx2ñ = x2р(x,t)dx = 2Dt, (2.8.3.2)

где коэффициент D подчиняется соотношению Эйнштейна, которое носит достаточно общий характер:

D = áx2ñ. (2.8.3.3)

Данное, хорошо известное в статистике, соотношение справедливо для всевозможных стохастических процессов с разными видами распределения вероятностей.

Если заново определить x, заменив x/ на x, новая дисперсия станет единичной и гауссовский процесс станет стандартным. Тогда, установив, что начальное значение x равно нулю, текущее значение в момент времени t будет определяться как

Х(t=nt) = x i. (2.8.3.4)

В книге Енса Федера "Фракталы"[22] суммировано рассмотрение хорошо известного гауссовского процесса с точки зрения его масштабной инвариантности (в некоторых книгах используется термин автомодельность).

В этом случае процесс рассматривается в разных масштабах времени - с разным временным разрешением. То есть, регистрации параметра процесса производятся через каждый промежуток времени bt, где b - некоторое произвольное число. Показано, что какое бы число b временных шагов ни разделяло моменты наблюдений, приращение x всегда составляют гауссов случайный процесс с независимыми значениями с áxñ=0 и дисперсией

áx2ñ = 2Dt при t=bt. (2.8.3.5)

То есть, с увеличением временного интервала фиксации параметра процесса в b раз, дисперсия процесса тоже увеличивается в b раз, а распределение вероятности, в зависимости от масштабного преобразования, будет иметь следующий вид:

р(x,bt) = exp (- ). (2.8.3.6)

Исходя из этого, можно сделать вывод о том, что гауссовский процесс обладает свойством подобия (скейлинга).

Он инвариантен в смысле распределения, то есть не меняет вида при преобразовании, которое меняет масштаб времени в b раз, а масштаб Х в b1/2раз. Или можно сказать, что при изменении масштаба временного рассмотрения гауссовского процесса в b раз, текущее значение параметра процесса меняется в b1/2 раз.

Видно, что у этого процесса масштабы времени и значений меняются в разных пропорциях.

Преобразования, которые меняют масштабные характеристики процесса в разных пропорциях, называются аффинными, а процессы, не меняющие своего вида, характера протекания, при аффинном преобразовании, называются самоаффинными.

Н. Винер постулировал случайную функцию Х(t) гауссовского процесса с независимыми значениями {x} через приращение, для любой пары моментов времени t и t0:

Х(t) - Х(t0) ~ x½ t - t0½Н, где Н=1/2 и t ³ t0. (2.8.3.7)

Мандельброт ввел понятие обобщенного броуновского движения, заменив в последней формуле значение Н равное 1/2 на любое действительное число из интервала 0<H<1.

Случай, при котором Н=1/2, соответствует полностью независимым значениям x - процесс стохастичен, его значения друг с другом не коррелируют.

Чтобы усовершенствовать эту модель, оценить корреляции будущих значений процесса с прошлыми, но вместе с тем, сохранить преемственность моделей с гауссовскими распределениями, вводится понятие модели обобщенного броуновского движения. Обобщенное броуновское движение имеет бесконечно большое время корреляции.

Дисперсия приращений V(t - t0) имеет вид:

V(t - t0) ~ ½ t - t0½2Н, (2.8.3.8)

а функция корреляции будущих приращений с прошлыми записывается в виде

С(t) = 22H-1- 1. (2.8.3.9)

Ясно, что "гауссовости" не будет и во многих логических фракталах. Показатель Н, который также можно называть Н-размерностью показывает степень близости логического фрактала к случайному процессу типа классического броуновского движения или бросания монеты.

Оценить показатель Н можно различными методами - например, методом Херста, оценивая накопленное количество И или Л на различных масштабах. Подробнее о методе Херста и обобщенном броуновском движении можно прочитать в уже упоминаемой книге Енса Федера.

Таким образом, Н можно использовать как количественную характеристику логического фрактала.


Послесловие: проблемы и задачи фрактальной логики

«Минотавр берется мною под защиту. Тезей становится стандартным персонажем, личностью без воображения, почитающей все условности. Минотавр – поэт, он не похож на других, он совершенно свободен. Его изолировали от всех потому, что он угрожает установленному порядку.»

Хулио Кортасар [23].

 

В данном тексте были предъявлены подходы, с помощью которых можно постепенно уточнять понятия логического фрактала и фрактальной логики, перечислены основные представления и концептуальные установки фрактальной логики.

Что дальше? Постараемся пофантазировать.

…Роджер Пенроуз в книге «The Emperor's New Mind: Concerning Computers, Minds, and the Laws of Physics»[24] рассматривает следующий мысленный эксперимент. Пусть мы формализовали с помощью искусственного языка некоторые высказывания, и дали задание компьютеру определить их истинность или ложность. Это определение происходит на основании системы аксиом – набора формализованных алгоритмическим языком мета-высказываний, определяющих все правила присвоения высказываниям логических значений.

Меняя систему аксиом, можно задавать возможные логики, рассматривать значения возможных высказываний. В частности, можно найти такую систему аксиом, в которой суждение «Я лгу» не образует противоречия.

Однако, согласно теореме Гёделя о неполноте, при любой полной системе аксиом всегда найдутся высказывания, которые будут противоречивы и зациклят компьютер – введут в бесконечную последовательность вычислений, из которой невозможно выйти. В теории искусственного интеллекта существует проблема остановки – не существует алгоритма, позволяющего дать ответ о том, остановится или нет программа вычислений[25]. Таким образом, не существует программы, которая могла бы показать – зациклен компьютер или нет.

Следовательно, любой достаточно сложный компьютер, работающий по определенной аксиоматической схеме всегда можно либо остановить, либо сломать. Вероятность остановки и ломки тем выше, чем сложнее аксиоматическая система.

Если рассматривать наше мышление с точки зрения аксиом, то оно необычайно сложно – требуется очень большое количество аксиом, необходимых для моделирования мышления. Тем не менее, мышление очень надежно – оно очень редко демонстрирует ломки или остановки. Это связано с тем, что наше мышление, по мнению Пенроуза, не устроено по принципу «аксиомы плюс высказывания» - мозг принципиальным образом отличается от компьютера, описанного выше.

Сэр Роджер Пенроуз (род. 1931)

Получил известность в начале 70 годов как соавтор (вместе со Сивеном Хокингом) теории черных дыр. Кроме того, известны парадоксальные геометрические фигуры и мозаики Пенроуза. Последние были запатентованы Пенроузом как основа многих логических головоломок и игр. Имеет личную страницу в Интернет и сам отвечает на письма.

 

Человеческое мышление решает алгоритмически неразрешимые задачи, которые поставили бы в тупик любую машину. Этой точкой зрения Пенроуз оппонирует Тьюрингу – машина не может мыслить, так как процессы мышления принципиально не представимы в рамках алгоритмов – например, алгоритмов машины Тьюринга.

Мышление, по мнению Пенроуза, является квантовой системой – мозг может производить вычисления на алгоритмически неразрешимых задачах, аксиоматические системы которых нелокальны – находятся в особых "квантово-механических" состояниях.

Мозг умеет переходить от "квантово-механического" состояния – алгоритмически неразрешимого и нелокального к "классическому" через некую (весьма загадочную в рассуждениях Пенроуза) редукционную функцию – функцию локализации мышления в мысли.

Эти туманные рассуждения Пенроуза можно метафорически проиллюстрировать фрактальной логикой.

Если представить логический фрактал как процесс определения аксиоматической системой истинности или ложности высказывания, то он является, по определению, нелокальной системой с точки зрения внешнего наблюдателя. Логическое значение логического фрактала нелокализовано в локальном знаке.

Поэтому логический фрактал может стать метафорой "квантомеханического состояния" в терминологии Пенроуза.

Аналогом классического или локализованного состояния аксиоматической системы будут ряды ИВ или ЛВ. Кроме того, мы будем считать классическим высказыванием и высказывания с аттрактором первого рода.

Ясно, что аналогом локального состояния могут стать законы фрактальной логики.

А вот пример "редукционной функции" или процедуры локализации, где А – логический фрактал:

А\/ИВ

Это уже знакомый нам закон дизъюнкции с истинно-вырожденным рядом.

"Редукционной функцией" может стать и оператор масштабного перехода.

Если перенести представления о локализации на процессы мышления, то мы сможем приблизиться к пониманию мышления как фазового перехода от бесконечности к конечности, от делокализации к локализации.

В связи с этим можно сформулировать, тезис локализации – перехода высказывания из нелокального значения логического фрактала в локальное – классическое высказывание:

Date: 2015-06-05; view: 549; Нарушение авторских прав; Помощь в написании работы --> СЮДА...



mydocx.ru - 2015-2024 year. (0.006 sec.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав - Пожаловаться на публикацию