Главная Случайная страница


Полезное:

Как сделать разговор полезным и приятным Как сделать объемную звезду своими руками Как сделать то, что делать не хочется? Как сделать погремушку Как сделать так чтобы женщины сами знакомились с вами Как сделать идею коммерческой Как сделать хорошую растяжку ног? Как сделать наш разум здоровым? Как сделать, чтобы люди обманывали меньше Вопрос 4. Как сделать так, чтобы вас уважали и ценили? Как сделать лучше себе и другим людям Как сделать свидание интересным?


Категории:

АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника






Глава 9. Группа динамических систем





«Нас объединило то, что мы все смотрели вдаль, – объяснял Паккард. – Мы были поражены, выяснив, что упорядоченные физические системы, затертые до дыр в курсе классической физики, порождают нечто таинственное, если слегка изменить параметры, нечто такое, к чему неприменим огромный аналитический аппарат». Фармер добавлял: «В философском плане обнаруженное ошеломило меня. Ведь это был действенный путь примирения свободы воли с детерминизмом. В самом деле: система является детерминистской, но мы не знаем, как она себя поведет в дальнейшем!

Исследование хаоса, проведенные в Санта-Крусе, наиболее существенно затронули тот раздел математики, в котором присутствует изрядная доля философии и который называется теорией информации. Эта теория была создана в конце 40-х годов Клодом Шенноном, американским инженером, трудившимся в лабораториях компании «Белл телефон». Поскольку информация хранилась в ячейках компьютерной памяти в двоичном представлении, один разряд такой ячейки, содержащий единицу или ноль (что соответствует понятиям «да» или «нет») и названный битом, стал основной мерой информации (см. также Введение в теорию информации)

Теория информации исследовала такое важнейшее понятие, как «избыточность. Согласно теории информации Шеннона обычный язык более чем на 50% избыточен, то есть содержит звуки или буквы, которые не являются строго необходимыми для передачи сообщения. Знакомая идея, не правда ли? Надежность связи в мире, где невнятно проговаривают слова и допускают опечатки, существенным образом зависит от избыточности. Именно элемент избыточности помогает людям решать кроссворды или вставлять пропущенное слово, если оно заканчивается, к примеру, буквой «а».

По Шеннону, поток информации в обычном языке является менее чем случайным; каждый новый бит частично ограничен предшествующими; таким образом, каждый новый бит несет в себе в некоторой степени меньше содержания, чем тот, что заключает в себе реальную информацию. В такой формулировке просматривается некий парадокс: чем выше доля случайности в потоке данных, тем больше информации будет передано каждым новым битом. Весьма ценная в техническом плане для начала компьютерной эры, теория информации Шеннона мало что привнесла в философию. Ее главный вклад, привлекший внимание специалистов других областей, выражается одним-единственным словом – энтропия.

Концепция энтропии восходит к термодинамике; она фигурирует во втором законе, гласящем, что Вселенная и каждая отдельная система в ней неизбежно стремятся к нарастанию беспорядка. Разделите бассейн на две части, поставив между ними перегородку. Наполните одну часть водой, а другую – чернилами. Дождитесь, пока поверхность успокоится, а затем снимите перегородку. Вы увидите, что лишь посредством случайного перемешивания молекул воды и чернила со временем перемешаются. Этот процесс никогда не повернет вспять, сколько ни жди.

Роберт Шоу узрел в аттракторах движущую силу информации. Согласно его первоначальной и главнейшей концепции, хаос указывает естественный путь возврата к живым физическим наукам, к тем идеям, которые теория информации почерпнула из термодинамики. Странные аттракторы, соединяющие порядок и беспорядочность, придали новую значимость измерению энтропии систем. Они являются эффективными смесителями, которые создают непредсказуемость и таким образом повышают энтропию. По представлениям Шоу, они порождают информацию там, где ее ранее не существовало.

Паккард замечал: «Кульминацией сложной динамики являются биологическая эволюция и процессы мышления. Интуиция подсказывает, что существует четкий принцип, с помощью которого эти сверхсложные системы генерируют данные. Миллиарды лет назад существовали лишь частицы протоплазмы, затем появились все мы. Итак, информация создавалась и хранилась в нашей собственной структуре. Несомненно, что в ходе развития разума человека, начиная еще с детства, информация не только аккумулируется, но и порождается из тех связей, которых ранее не существовало».

Сидя в кафе, они забавлялись тем, что спрашивали: далеко ли отсюда находится ближайший странный аттрактор? Уж не то ли дребезжащее автомобильное крыло? Или флаг, трепещущий от легкого ветерка? Дрожащий лист на ветке? «Вы не увидите объект до тех пор, пока верно выбранная метафора не позволит воспринять его», – замечал Шоу, вторя Томасу С. Куну.

Идеи, зародившиеся в Санта-Крусе, легли кирпичиком в фундамент современной методологии исследования хаоса. Когда физик, имеющий массу данных, намеревался определить их размерность или энтропию, в ход шли методы, придуманные в годы подсоединения штекеров к аналоговому компьютеру модели «Systron-Donner» и напряженных наблюдений за экраном осциллографа.

Измерение аттрактора являлось «первым уровнем знаний, необходимых для характеристики его качеств». Данное свойство обеспечивало «количество информации, требуемое для того, чтобы установить положение точки на аттракторе с заданной точностью».

Date: 2015-07-10; view: 325; Нарушение авторских прав; Помощь в написании работы --> СЮДА...



mydocx.ru - 2015-2024 year. (0.006 sec.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав - Пожаловаться на публикацию