РАЗМЫШЛЕНИЯ О ПРИРОДЕ И СУЩНОСТИ ИНФОРМАЦИИ

Обложка

Цитировать

Полный текст

Аннотация

В статье предпринята попытка дать определение понятия «информация», основываясь не на наблюдаемых свойствах информации, а на физических представлениях о природе информационных процессов. Рассмотрены вопросы о том, зачем нужна информация, как возникает новая информация, где и как она хранится, как происходит обмен информацией между сложными системами и что такое знание с информационной точки зрения. Обсуждаются механизмы возникновения знаний у человека и роль подсознания в творческом процессе.

Полный текст

Введение В настоящее время существует уже более 500 определений термина «информация» [1], однако единого, универсального определения пока так и не найдено [2]. Вместе с тем желание найти такое определение и ответить на вопрос, что же такое информация, не пропадает. Человеческая природа не может смириться с неопределенностью и пытается внести ясность (четкость границ) туда, где ее недостаточно. В данной статье предпринята попытка сделать еще один шаг в этом направлении. Но вопрос будет сформулирован несколько иначе: не что такое информация как таковая, а что мы, люди, называем информацией? Что скрывается под абстрактным понятием «информация», в чем глубинная физическая природа информационных процессов, которую мы «опускаем», произнося слово «информация» и рассматривая ее многочисленные проявления в природе. Возможно, изменение формулировки вопроса и, соответственно, точки зрения на проблему, позволит получить искомый ответ. Отмечу, что поводом для написания данной статьи, мною, человеком чисто технического склада ума, была работа Д.И. Дубровского, в которой обсуждался «ключевой вопрос проблемы сознания» [3]. Информационный подход, используемый Давидом Израилевичем [4], как нельзя лучше подходил к курсу лекций по основам научного эксперимента, который я читаю аспирантам МАИ. Собственно говоря, это и заставило меня задаться вопросом, что такое информация, чтобы простым языком донести это до ребят. Поиск ответа продолжался более трех лет, и в этой статье содержатся его основные результаты. Хочу заранее извиниться перед профессиональными философами за нарушение правила lanoblesseoblige[8]. Мне явно не хватает глубины знаний и времени, чтобы их приобрести. Отсюда и возможные неточности в тексте. Но я все-таки рискну опубликовать свои мысли по данному вопросу, поскольку надеюсь, что взгляд инженера на философскую проблему может быть полезен и поможет нам приблизиться к истине. Что мы знаем об информации? В работах [4-9] и во множестве других подобных работ дается подробное описание и анализ существующих определений понятия «информация». Поэтому ниже будут приведены только основные подходы к рассмотрению данного понятия, которые понадобятся нам для дальнейших рассуждений. В настоящее время выделяют три таких подхода, а именно обыденный, философский и общенаучный [10]. Обыденный подход находит отражение во многих словарях русского и иностранных языков. Так, например, в словаре русского языка С.И. Ожегова информация определена как «сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством». С философских позиций все существующие подходы к информации можно разделить на три основные класса: субстанциональные, атрибутивные и функциональные [10. С. 12]. Согласно субстанциональному подходу, информация есть субстанция, то есть самостоятельная сущность. В основе этого подхода лежит идея Н. Винера о том, что «информация - это не материя и не энергия, это информация» [11. С. 201]. В своих работах Винер показал, что информация - главный инструмент адаптации и развития живой материи. Он считал, что информация - «это обозначение содержания сигналов, полученных из внешнего мира в процессе нашего приспосабливания к нему и приспосабливания к нему наших чувств». В более компактной форме это определение приводится в работе [4. С. 110]: информация - это «содержание сигнала (сообщения)». Сторонники атрибутивного подхода рассматривают информацию как неотъемлемое свойство материи, то есть как ее атрибут, такой же, как, например, движение. Этого подхода придерживались И.Б. Новик, А.Д. Урсул и др. Они в основном исходили из ленинской теории отражения и полагали, что информация есть «отраженное разнообразие» [12. С. 117]. Согласно функциональному подходу, которого придерживались Д.И. Дубровский, Б.С. Украинцев и др., информация является свойством не всей материи, а только сложных самоорганизующихся систем и неразрывно связана с их функционированием [10. С. 15]. В одной из своих ранних работ Б.С. Украинцев писал, что «без процессов управления не может быть информации» [13. С. 36]. В основе функционального подхода лежит понятие информационного процесса. Эти процессы постоянно протекают внутри самоорганизующихся систем и при их взаимодействии с окружающей средой. Информационный процесс представляет собой полный цикл переработки информации и осуществляется в форме трансляции, преобразования, хранения и использования сигналов. Сигнал - это материальный объект, несущий определенную информацию для данной системы. Информация необходимо воплощена в своем материальном носителе, то есть не может существовать вне и помимо его [4. С. 99-110]. Толчком к развитию общенаучного подхода было появление систем связи. Насущная потребность в измерении количества информации побудила исследователей к поиску подходящей теории. В результате этих поисков родилась «Математическая теория связи» (1948 г.) К. Шеннона, в которой были заложены основы количественного подхода к исследованию процессов передачи информации [14. С. 243]. В работах К. Шеннона информация трактуется как снятая неопределенность, вводится мера количества информации, аналогичная энтропии в термодинамике. Примерно в те же годы исследования физических процессов в живой природе привели к появлению термина «отрицательной энтропии», которое ввел Э. Шредингер. Он показал, что любая живая система экспортирует производимую им энтропию и «питается отрицательной энтропией» с целью самосохранения и поддержания собственной энтропии на достаточно низком уровне [15. С. 123]. В 1950-е годы стало ясно, что далеко не вся информация может быть импортирована живыми системами. Воспринимается только та информация, которая «понятна» системе. В результате появилась семиотика (от греч. sema - знак), а на ее основе - семантическая теория информации, в которой в качестве носителей информации рассматриваются различные знаки, слова и языки. Большой вклад в развитие семантической теории информации внес российский математик, философ и кибернетик Ю.А. Шрейдер. Он ввел понятие «тезауруса» как некоторой начальной информации, которой должна обладать система, чтобы воспринимать новую информацию извне. По мнению Шрейдера, именно от тезауруса системы зависит ее возможность воспринять тот или иной фрагмент информации из данного сообщения и дать ему определенную интерпретацию [16. С. 118]. Заметим, что Шрейдер, как и сторонники функционального подхода, оперирует понятиями «сообщения» и «приемника информации». При этом утверждается, что информация, которую приёмник извлекает из сообщения, зависит от свойств самого приемника и его тезауруса. Значительные успехи в генетике во второй половине ХХ века заставили исследователей акцентировать внимание на вопросах ценности информации. Согласно этим работам, ценностью (или полезностью) обладает только та информация, которая способствует выживанию живых организмов [10. С. 18]. Именно информации из окружающего мира отводится ключевое место в теории функциональных систем академика П.К. Анохина, согласно которой способность живых существ предсказывать будущее по сигналам из настоящего, основываясь на опыте из прошлого, и обуславливает их способность к выживанию [17. С. 8]. Информацию как необходимый компонент живых систем рассматривал российский биолог В.И. Корогодин, заложивший основы витальной теории информации (от лат. vita - жизнь) [18]. Основными свойствами информации В.И. Корогодин называл фиксируемость и действенность. Он показал, что информация может существовать, только фиксируясь на материальном носителе. Действенность информации, по мнению В.И. Корогодина, заключается в том, что она позволяет совершать целенаправленные действия. Хотя идеи В.И. Корогодина вызывали множество возражений, они привели к возникновению новых научных концепций, в частности к синергетической теории информации, которая базируется на работах Г. Хакена, И.Р. Пригожина, Е.Н. Князевой и С.П. Курдюмова (см. [10. C. 19]). В России эту теорию развивал Д.С. Чернавский. Информация понимается им как запомненный выбор одного варианта из нескольких возможных. При этом слово «запомненный» относится к фиксации информации на материальном носителе [19. C. 4]. Важную для наших последующих рассуждений мысль высказал инженер-математик С.Я. Янковский. Он пишет: «Любое взаимодействие между объектами материального мира, в процессе которого один приобретает некоторую субстанцию, а другой ее не теряет, называется информационным взаимодействием. При этом передаваемая субстанция называется информацией» [20. C. 2]. Можно, конечно, оспаривать субстанциональный характер информации, однако неоспоримым является примененный автором физический подход к рассмотрению информационного обмена двух взаимодействующих объектов - один из которых является носителем информации, а второй - ее приемником. Таким образом, можно констатировать, что за последние 100 лет представления об информации претерпели значительные изменения, были определены основные свойства информации, появилось множество теорий, объясняющих это явление. Создано даже новое направление - философия информации [21]. Тем не менее столь различные и противоречивые представления об информации заставляют задуматься о том, существует ли она как таковая и можно ли вообще дать ей достаточно строгое определение. Так, например, по мнению Н.Н. Моисеева, «строгого и достаточно универсального определения информации не только нет, но и быть не может. Это понятие чересчур широко» [22. C. 97]. И с этим трудно не согласиться, так как информацию никто никогда не видел, не ощущал и не фиксировал с помощью аппаратуры. В работе [23. C. 17] отмечается, что «…любое определение информации будет указывать не на саму информацию, а на отдельный ее момент». Но может быть все это происходит потому, что мы пытаемся дать определение информации, оперируя только ее многочисленными внешними проявлениями (моментами)? Если же нам удастся проникнуть в глубинные механизмы информационных процессов, вполне возможно, что искомое определение будет найдено. Зачем нужна информация? Согласно В.И. Корогодину, ключевым свойством информации (то есть свойством, которое делает информацию информацией), является ее действенность. Действенность проявляется в том, что информация используется неким оператором (материальным объектом, сложной системой) для целенаправленной деятельности. Информация, которая не используется в этом процессе, бесполезна и в конце концов теряется [18. C. 33]. Формально это можно записать следующим образом: , (1) где - цель (потребность оператора); - действие, которое выполняет оператор на основании информации ; - результат, который достигает оператор в результате действия. Очевидно, что у любой сложной системы существует ограниченный набор действий, которые она может выполнить. Пока система не обладает информацией для выбора действий, она совершает их случайным образом (на множестве возможных альтернатив). Полученный результат в этом случае тоже будет случайным. Но если система обладает информацией, позволяющей ей выбрать нужное действие, то, с большой вероятностью, цель будет достигнута и потребность оператора будет удовлетворена. Таким образом, наличие полезной информации (то есть информации, позволяющей принимать верные решения и выживать в агрессивной среде) обеспечивает эффективное функционирование сложной системы. Для живых систем способность накапливать и обрабатывать информацию обеспечивает их выживаемость (согласно теории функциональных систем П.К. Анохина), а для сложных технических систем - работоспособность. Откуда берется информация? Чтобы разобраться с этим вопросом, рассмотрим следующий пример. На лобовом стекле современных автомашин устанавливают датчик дождя, который выдает электрический сигнал, пропорциональный количеству капель на стекле. Если рассматривать этот сигнал сам по себе, то никакой полезной информации он не несет. Но если мы знаем, что этот сигнал поступает именно от датчика дождя, то он приобретает для нас вполне определенный смысл (происходит связывание двух сущностей: «сигнал» и «датчик дождя», см. [24. С. 14]), и его можно использовать для управления «дворниками». Таким образом, сигнал датчика (данные) стал для нас источником информации только после того, как был дополнен информацией о его содержательном смысле. Формально это можно представить в виде следующего выражения: , (2) где - сигнал (входные данные); - информация о содержательном смысле сигнала (данных); - полезная информация. Из выражения (2) следует, что новая информация появляется в тот момент, когда входные данные приобретают некоторый смысл. Однако (2) не отвечает на поставленный вопрос, поскольку в его левой части присутствует информация, которую тоже надо где-то взять. Если принять, что приходит извне, то мы не сможем ответить на поставленный вопрос. Поэтому может быть только внутренней информацией, то есть информацией, генерируемой внутри сложной системы. И здесь мы приходим к гипотезе Г. Кастлера о «случайном выборе» [25. С. 29], развитой затем Д.С. Чернавским. Действительно, если внешний источник информации отсутствует, существует только один способ ее получить - создать случайным образом. Но вряд ли такая информация окажется полезной, если она не будет каким-то образом проверена. Поэтому информация должна фиксироваться в системе только в том случае, если ее полезность подтверждена. Это значит, что система делает случайный выбор в некоторой ситуации, а затем, если выбор оказался успешным и цель была достигнута, запоминает этот выбор и характеристики возникшей ситуации. Если выбор оказался неверным, новая информация не фиксируется системой (или фиксируется с соответствующим атрибутом). Следуя этой логике, можно записать следующее выражение, описывающее появление новой информации: , (3) где - сигналы датчиков, отражающие текущее состояние системы и окружающей среды; - случайно выбранное действие, приведшее к успеху (к достижению цели) в текущем состоянии; - новая информация, которая фиксируется в системе. В примере с датчиком дождя новой информацией является связь сигнала и его источника, которая была выбрана случайным образом. Но если этот выбор оказался успешным и система управления дворниками заработала корректно, то его можно зафиксировать в системе. Замечателен тот факт, что в левую часть выражения (3) входят только неосмысленные сигналы датчиков и реакция системы , выбранная случайным образом. То есть никакой внешней информации для получения новой информации не требуется. Единственное условие - достижение цели, которое является подтверждением корректности новой информации и сигналом для ее фиксации в системе. Аналогичный вывод сделан в работе [26], где отмечается, что новая информация появляется не в момент случайного выбора, а при сравнении цели и достигнутого результата. Но сравнение - сложная функция, требующая соответствующих механизмов и дополнительной информации. Трудно себе представить систему, которая в начале своего развития обладала бы такой возможностью. Однако, если рассмотреть поведение сложной системы в некоторой агрессивной среде, которая позволяет выжить только тем особям, которые сделали правильный выбор, вопрос о способе сохранения в системе полезной информации решается сам собой. Если система сделала правильный выбор - она сохранила себе жизнь (и, следовательно, полезную информацию), если нет - погибла (вместе с неверной информацией). По мере эволюции системы усложнялись и научились делать выбор не ценой своей жизни, а за счет рассуждения и предвидения будущего (см. работы П.К. Анохина). Таким образом, можно утверждать, что в основе механизма появления новой информации действительно лежит случайный выбор, подтвержденный естественным отбором, что согласуется с упомянутой выше гипотезой Г. Кастлера. Более высокоразвитые системы применяют для отбора не только передачу информации с генами, но и сравнение результатов случайного выбора с ожидаемыми результатами, о чем говорилось в [26]. Из сказанного следует, что в природе информация может возникать только в сложных системах, способных ее накапливать и повторно использовать, то есть только в живых системах или созданных ими автоматах. Неживые системы могут отражать информацию (кратеры на Луне, следы на песке и т.п.), но создавать, накапливать и повторно ее использовать они не могут. Отметим, что данный вывод полностью согласуется с функциональной концепцией информации и отрицает атрибутивный подход. Где и как хранится информация? В работах В.И. Корогодина отмечается, что одним из фундаментальных свойств информации является ее фиксируемость [18. С. 27]. Фиксируемость проявляется как способность информации, не будучи «ни материей, ни энергией», существовать только в зафиксированном на материальном носителе состоянии. Никто, никогда и нигде не встречался с информацией, которая находилась бы в «свободном виде». При этом способы записи (или фиксации) информации на том или ином носителе всегда условны и не имеют никакого отношения к ее содержательному смыслу. Фиксируемость необходима сложной системе для того, чтобы она могла использовать полученную информацию повторно. Для нас возможность хранения информации кажется вполне естественной, а вот реализация этой функции у простейших организмов до сих пор остается загадкой. Хотя из приведенных выше соображений следует, что и простейшие должны обладать способностью воспринимать и хранить информацию. И это подтверждается рядом работ, в которых отмечается наличие памяти даже у бактерий [27]. Фиксируемость тесно связана с принципом инвариантности информации [18. С. 29; 4. С. 190], который означает, что одна и та же информация может быть записана любым способом на любом материальном носителе, при этом ее смысловое значение не изменится. Конечно, инвариантность - понятие относительное. Оно вытекает из того, что мы можем представить и записать любую информацию множеством различных способов. Но менее развитые системы такими возможностями не обладают. Поэтому инвариантность - это скорее теоретическая возможность представления информации в любой форме. А практическая возможность определяется исключительно свойствами системы, которая этой информацией оперирует. Принцип фиксируемости подразумевает, что информация хранится в виде некоторых пространственно-временных комбинаций физических свойств материальных объектов - носителей информации. Поскольку в окружающей нас природе подобные комбинации возникают постоянно (как результат процессов взаимодействия объектов материального мира), можно было бы согласиться с утверждением сторонников атрибутивного подхода, что все в мире есть информация. Однако, чтобы использовать эту информацию, система должна «уметь» правильно ее интерпретировать. А такими возможностями обладают, как мы уже убедились, только живые системы (или созданные ими автоматы), которые уже обладают некоторой начальной информацией или тезаурусом, согласно работам Ю.А. Шрейдера. Таким образом можно заключить, что произвольная комбинация свойств материального объекта становится информацией только после того, как будет интерпретирована сложной системой и приобретет для нее определенное смысловое значение. Информация может храниться исключительно на внутренних или внешних носителях сложной системы в виде особых комбинаций физических свойств этих носителей, «понятных» сложной системе. Все прочие комбинации свойств естественного происхождения (следы на песке, кратеры на Луне и т.д.) информацией не являются - это «сырые данные», которые могут стать информацией только после считывания и последующей интерпретации сложной системой. Как и зачем происходит обмен информацией? Рассмотрим обмен информацией между двумя сложными системами «А» и «Б». Чтобы информация, хранящаяся в системе «А», была передана системе «Б», необходимо выполнить следующие действия: 1) переписать информацию с внутреннего носителя системы «А» на промежуточный физический носитель(кодирование сообщения); 2) передать этот носитель системе «Б» (передача сообщения); 3) произвести обратное преобразование, интерпретировать сообщение и записать его на внутренний носитель системы «Б» (декодирование сообщения). Формально это можно представить в следующем виде: Кодирование: , (4а) Передача: , (4б) Декодирование: , (4в) где, - передаваемая и принимаемая информация соответственно; , - дополнительная информация, необходимая для кодирования и декодирования (интерпретации) сообщения, соответственно; , - передаваемое и принимаемое сообщение (пространственно-временная комбинация свойств материального объекта - промежуточного носителя информации) соответственно; - шумовая составляющая. В идеальном случае . Однако в силу ошибок, которые могут возникать на всех этапах передачи информации, существует вероятность искажения передаваемой информации, то есть случай, когда , о чем много говорилось в работах [14; 16]. Из (4) следует, что для передачи и приема сообщения необходимо привлечение дополнительной информации. А это значит, что обмениваться информацией могут только сложные высокоорганизованные системы, в которых эта информация имеется. Заметим, что при передаче информации от «А» к «Б» фактически передается не информация, а сообщение, то есть материальный носитель с той самой особой комбинацией физических свойств, о которой говорилось выше. Носитель информации вступает во взаимодействие со сложной системой - приемником информации. Это взаимодействие является исключительно физическим процессом и состоит в изменении свойств (состояния) сложной системы. Чтобы произвести такие изменения система затрачивает определенное количество массы и энергии в полном соответствии с фундаментальными законами сохранения. Крайне важно, что для описания этого обмена на физическом уровне понятие информации не требуется. Необходимость в нем возникает только в тех случаях, когда мы хотим абстрагироваться от сложности физических процессов передачи и хранения информации и сказать о том, какая именно информация передается или хранится в системе. Следовательно, информация - это не самостоятельная сущность, не субстанция, которая «перетекает» от «A» к «B», а абстрактное понятие, которое придумали люди для обозначения смыслового содержания передаваемых сообщений. В живых системах обмен информацией является сложным процессом, включающим не только механическую «перезапись» сигналов, но и их интерпретацию (в том числе оценку полезности). Для автоматов, созданных людьми, процессы кодирования и декодирования протекают значительно проще, поскольку происходят по заранее определенным протоколам и алгоритмам обработки. Но если у автоматов такие возможности заложены людьми, то возникает вопрос, каким образом они могли возникнуть в живой природе и у человека? У этого вопроса есть два аспекта: 1) зачем нужен обмен информацией живым организмам и 2) как он у них появился, если их этому никто не учил. Необходимость обмена информацией в живой природе обусловлена, очевидно, потребностью выживания. Обмен информацией между особями позволяет им сократить количество фатальных ошибок, совершаемых при случайном выборе (то есть в условиях отсутствия или недостатка информации). Процесс научения обмену информацией, по-видимому, аналогичен процессу генерации новой информации, рассмотренному выше. Одна система, обладая некоторыми возможностями по воздействию на объекты окружающего мира и изменению их свойств, случайно сообщает через них другой системе о чем-то важном (например, сигнализирует звуковым сигналом о наличии пищи или об опасности). Другая система путем физического взаимодействия с носителем информации (звуковая волна) каким-то образом получает отправленное ей сообщение и реагирует на него соответствующим образом. В популяции таких систем (особей) большей выживаемостью будут обладать те, которые научились обмениваться информацией и тем самым принимать правильные решения. Те же, кто не смог этому научиться, - погибают. Таким образом, природа обеспечивает сохранение и накопление в популяции верной информации, обеспечивающей ее членов способностью обмениваться информацией. Причем такие способности проявляются не только у человека, но и у растений [28], и даже на клеточном уровне [29]. Можно ли копировать информацию? Когда мы делаем сотни копий одного и того же лазерного диска, нас не смущает фраза, что мы «копируем информацию». Но так ли это? Конечно же, нет. Мы копируем не информацию, а запись, в которой эта информация закодирована. При этом все законы сохранения безусловно соблюдаются. Для создания копии требуется определенное количество вещества и энергии для придания этому веществу соответствующих свойств. Что такое знания? Рассмотрим такое общеизвестное знание, как закон Ома: , (5) который связывает величину тока в цепи с величиной падения напряжения на сопротивлении . С информационной точки зрения (5) можно представить в виде , (6) где - исходная информация о величине падения напряжения и сопротивления ; - знание (закон Ома); - новая (для сложной системы) информация о величине тока в цепи . Из (6) следует, что знания позволяют сложной системе получить новую информацию по уже существующей. В то время как простое объединение информационных блоков не дает новой информации. Вероятно, это качество можно рассматривать как характерный признак, отличающий знания от информации вообще. Кроме того, знания являются компактной формой представления информации (экономия энергии и массы) и обладают прогностической силой, то есть способностью выйти за границы нашего опыта и ответить на вопрос - «Что будет, если?» [30. С. 82]. По своей сути знания - это информация верхнего уровня, использующая некоторые базовые понятия (информацию нижнего уровня). Если в (2) новая информация получается в результате дополнения сигналов смысловой информацией, то в (6) новая информация получается путем применения знаний к уже имеющейся в системе информации. Знания возникают в результате обобщения уже имеющейся в системе информации, как правило - результатов наблюдений. Механизм возникновения знаний можно было бы назвать индукцией, однако логика здесь не работает. На это еще в 1952 году указывал Альберт Эйнштейн в письме своему другу Морису Соловину [31. С. 570], в котором он изобразил свою схему научного метода познания (рис. 1). Рис. 1. Схема познания Альберта Эйнштейна [31. С. 571] Эйнштейн объясняет эту схему следующим образом. (1) Нам даны - непосредственные данные нашего чувственного опыта. (2) - это аксиомы, из которых мы выводим заключения. Психологически основаны на . Но никакого логического пути, ведущего от к , не существует. Существует лишь интуитивная (психологическая) связь, которая постоянно «возобновляется». (3) Из аксиом логически (дедукция) выводятся частные утверждения , которые могут претендовать на строгость. (4) Утверждения сопоставляются с (проверка опытом). По результатам проверки (п. 4) делается вывод о непротиворечивости теории, базирующейся на . Если выявляется противоречие - и пересматриваются. Существенно, что и позволяют не только проверять теорию опытом, но и предсказывать результаты, которые ранее никто не наблюдал. В этом и состоит прогностическая сила любой теории (знания). В процессе познания наиболее загадочной является генерация системы аксиом . Но, поскольку природа уже придумала механизм генерации новой информации путем случайного выбора и последующего отбора, то и в этом случае можно предположить, что генерация происходит случайным образом. Единственное, что остается сделать, - это проверить корректность результата и выбрать единственно верное решение из множества возможных альтернатив. Поиск аксиом осуществляет, по-видимому, наше подсознание, которое в фоновом режиме (неосознанно) «случайным» образом генерирует, выстраивает цепочки от к через и в случае успеха выдает сигнал сознанию, что решение найдено. Однако такое решение не может быть абсолютно верным, поскольку при поиске подсознание использует «быстрые» методы проверки, основанные исключительно на нашем опыте, но не на логике. Поэтому после завершения поиска результат должен быть подтвержден логикой. Можно предположить, что данный механизм создавался природой для принятия быстрых решений в опасных ситуациях. Поэтому в нем используется только накопленный жизненный опыт, когда сложные и длительные вычисления производить некогда. Вероятно, озарение, которое испытывает ученый, поэт, художник или музыкант после долгих, мучительных поисков, - это и есть момент выхода процесса поиска решения из подсознания. Иногда (при недостатке информации) этот процесс может заходить в тупик, не давая ответа. Однако любая новая информация, поступающая извне, перезапускает процесс и может мгновенно приводить к желаемому результату (многочисленные примеры и рассуждения на эту тему приведены в работах [32-35]. Однако гипотеза о генерации новой информации путем случайного выбора и последующего отбора объясняет далеко не все. Практически все композиторы, поэты, художники и ученые говорят, что озарение приходит к ним свыше: «Тщетно, художник, ты мнишь, что творений своих ты создатель!» [36]. Многие жизненные ситуации кажутся абсолютно невероятными. Между близкими людьми существуют невидимые, тонкие нити, по которым они на любом расстоянии чувствуют друг друга. И это далеко не все необъяснимое, что происходит с человеком и в живой природе. Простым совпадением объяснить эти явления практически невозможно, поскольку их вероятность исчезающе мала. Поэтому утверждать, что выбор является исключительно случайным, пока оснований нет. Правильнее будет допустить, что существуют какие-то внешние, пока неизвестные нам факторы, которые могут оказывать влияние на этот выбор. Заключение Таким образом, на основании приведенных выше рассуждений можно сделать следующие выводы. 1. Информации как таковой, то есть как отдельной, самостоятельной субстанции, в природе не существует. 2. Информация - это абстрактное понятие, которое обозначает смысловое содержание пространственно-временных комбинаций физических свойств материальных объектов - носителей информации (сообщений по Винеру). Сами по себе комбинации свойств, постоянно возникающие в природе в результате процессов взаимодействия материальных объектов (кратеры на Луне, следы на песке и т.д.), информацией не являются. Это «сырые данные», которые становятся информацией только после того, как будут дополнены другой информацией и приобретут определенный смысл для сложной системы. 3. В основе механизма появления новой информации в замкнутых системах лежит случайный выбор, подтвержденный последующим отбором. 4. Информационные процессы по своей природе являются процессами физического взаимодействия материальных объектов. В результате этого взаимодействия происходит изменение физических свойств объектов, с которыми связано то или иное смысловое содержание. И поскольку характер этих изменений не имеет значения для информационного процесса, мы от них абстрагируемся и говорим, что происходит не физическое, а информационное взаимодействие. 5. Для описания физического взаимодействия материальных объектов понятие информации не требуется. Поэтому можно утверждать, что это понятие является вторичным по отношению к объектам материального мира. 6. Попытки рассматривать информацию как таковую в отрыве от ее истинной природы (то есть в отрыве от физических свойств материальных объектов, являющихся ее носителями) приводят к тому, что нам не удается дать ей единственно верное определение. Любая формулировка оказывается одновременно верной и неверной, поскольку опирается не на физическую природу информационного процесса, а на его внешние проявления. И поскольку таких проявлений бесконечно много, то и количество формулировок может быть бесконечно большим.
×

Об авторах

Андрей Борисович Надирадзе

Московский авиационный институт

Автор, ответственный за переписку.
Email: vyou@yandex.ru

доктор технических наук, профессор, и. о. зав. кафедрой 208 «Электромагнитные двигатели, энергетические и электрофизические установки»

Волоколамское шоссе, д. 4, Москва, 125993, Российская Федерация

Список литературы

  1. Бекман И. Н. Информатика // Курс лекций, Московский государственный университет им. М.В. Ломоносова, 2009. URL: http://profbeckman.narod.ru/Inform Lekc. htm (дата обращения: 12.09.2022).
  2. Вопросы философии [Электронный ресурс]: Информационный подход в междисциплинарной перспективе - Материалы «круглого стола», 04.03.2010 г. URL: http://vphil.ru/index.php?option=com_content&task=view&id=103 (дата обращения: 05.08.2023).
  3. Дубровский Д. И. Зачем субъективная реальность, или «Почему информационные процессы не идут в темноте»? (Ответ Д. Чалмерсу) // Дубровский Д. И. Сознание, мозг, искусственный интеллект. М.: Стратегия Центр, 2007. С. 139-163.
  4. Дубровский Д. И. Информация, сознание, мозг: монография. М.: Высшая школа, 1980. 286 с.
  5. Жилин В. И. К вопросу о многозначности трактовки понятия «информация» // Вестник Челябинского государственного университета. 2010. № 31 (212). Философия. Социология. Культурология. Вып. 19. С. 116-122.
  6. Власов Д. В. Информация как атрибут живой материи // Статистика и экономика. 2010. № 2. С. 126-132.
  7. Рыжов В. П. О понятии «информация» // Известия вузов России. Радиоэлектроника. 2011. № 1. C. 1-16. URL: https://cyberleninka.ru/article/n/o-ponyatii-informatsiya (дата обращения: 12.09.2022).
  8. Колин К. К. Философия информации: структура реальности и феномен информации // Метафизика. 2013. № 4 (10). С. 61-84.
  9. Саночкин В. В. О возможности согласования различных представлений об информации // Метафизика. 2013. № 4 (10). С. 49-60.
  10. Лысак И. В. Информация как общенаучное и философское понятие: основные подходы к определению // Философские проблемы информационных технологий и киберпространства. 2015. № 2. URL: https://cyberleninka.ru/article/n/informatsiya-kak-obschenauchnoe-i-filosofskoe-ponyatie-osnovnye-podhody-k-opredeleniyu (дата обращения: 12.09.2022).
  11. Винер Н. Кибернетика, или Управление и связь в животном и машине / пер. с англ. М.: Сов. радио, 1968. 330 с.
  12. Урсул А. Д. Природа информации: философский очерк / А. Д. Урсул; Челяб. гос. акад. культуры и искусств; Науч.-образоват. центр «Информационное общество»; Рос. гос. торгово-эконом. ун-т; Центр исслед. глоб. процессов и устойчивого развития. 2-е изд. Челябинск, 2010. 231 с.
  13. Украинцев Б. С. Информация и отражение // Вопросы философии. 1963. № 2. С. 26-41.
  14. Шеннон К. Работы по теории информации и кибернетике. М.: Иностранная литература, 1963. 832 с.
  15. Шредингер Э. Что такое жизнь с точки зрения физики? М.: РИМИС, 2009. 172 с.
  16. Шрейдер Ю. А., Шаров А. А. Системы и модели. М.: Радио и связь, 1982. 152 с.
  17. Анохин П. К. Избранные труды. Философские аспекты теории функциональной системы. М.: Наука, 1978.
  18. Корогодин В. И., Корогодина В. Л. Информация как основа жизни. Дубна: Издательский центр «Феникс», 2000. 208 с.
  19. Чернавский Д. С. Синергетика и информация: Динамическая теория информации. М.: Едиториал УРСС, 2004.
  20. Янковский С. Я. Концепция общей теории информации. М.: Бета-Издат, 2000.
  21. Хлебников Г. В. Философия информации Лучано Флориди // Теория и практика общественно-научной информации. 2013. № 21. С. 15 58.
  22. Моисеев Н. Н. Расставание с простотой. Путь к очевидности. М.: Аграф, 1998.
  23. Болотова Е. А. Информация как философская категория: онтологические и гносеологические аспекты: дис. … канд. филос. н.: 09:00:01 - Кубанский государственный университет, 2005. 127 с.
  24. Смирнов А.В. Смысл и вариативность разума // Философский журнал. 2023. Т. 16, № 2. С. 5-17. doi: 10.21146/2072-0726-2023-16-2-5-17.
  25. Кастлер Г. Возникновение биологической организации. М.: Мир, 1967.
  26. Саночкин В. В. Ошибочность гипотезы г. Кастлера о появлении информации при выборе // Эволюция. 2006. № 3. С. 129-131.
  27. Ball P. Cellular memory hints at the origins of intelligence // Nature 451, 385, https://doi.org/10.1038/451385a
  28. Ижевский С. О чем разговаривает сад // Цветочный клуб, июль-август, 2014.
  29. Nikitin M. P. Non-complementary strand commutation as a fundamental alternative for information processing by DNA and gene regulation // NatChem. 2023 Jan. 15(1). Р. 70-82.
  30. Рузавин Г. И. Неопределенность, вероятность и прогноз // Философский журнал. 2009. № 2 (3). С. 77-92.
  31. Эйнштейн А. Собрание научных трудов: в четырех томах. Т. 4. М.: Наука, 1965. 600 с. Серия «Классики науки».
  32. Адaмap Ж. Исследование психологии процесса изобретения в области математики. Франция. 1959 г. / пер. с франц. М.: Изд-во «Советское радио», 1970.
  33. Пуанкаре А. О науке / пер. с франц. М.: Наука. Главная редакция физико-математической литературы, 1983.
  34. Мигдал А. Поиски истины. М.: Мол. гвардия, 1983.
  35. Розов М. А. Инженерное конструирование в научном познании // Философский журнал. 2008. № 1. С. 54-67.
  36. Толстой А. К. Сочинения: в 2 т. М.: Художественная литература, 1981. Т. 1: Стихотворения.

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах