• Статьи
  • Вопросы и ответы
  • Обучение
  • Библиотека
  • ENG
  • Вы находитесь: » » ГИТТ, ВЕРНЕР - "Информация: третья фундаментальная величина"

    ГИТТ, ВЕРНЕР - "Информация: третья фундаментальная величина"

    0 432
    Все статьи автора: Гитт Вернер
    Профессор Вернер Гитт, глава отделения обработки информации Федерального института физики и технологии (Германия)
     
    В любой отрасли науки и техники две величины издавна считаются основополагающими и универсальными: энергия и материя. Но есть еще одно понятие,которое оказывается столь же широким и фундаментальным - информация. Мы имеем дело с информацией на каждом шагу: в информационных технологиях, системах связи, системах управления,в языках, биологических системах, в информационных системах живых клеток. Так что информация по праву считается третьей универсальной и основополагающей величиной. Информация - базовое понятие в таких областях, как технология, биология и лингвистика. Продвигаясь рука об руку со стремительно развивающимися компьютерными технологиями,новая отрасль науки - информатика приобрела значение, которое трудно было вообразить два-три десятилетия назад.
    Информационная насыщенность всех живых существ - самое весомое свидетельство против эволюции и в пользу целенаправленного Творения. Анализируя разнообразные пути передачи информации, мы приходим к заключению, что формы жизни были созданы в соответствии с разумным планом.
    Информация передается с помощью набора символов (статистический уровень), упорядоченных использованием кода (синтаксический уровень),для передачи значащего сообщения (семантический уровень), которое вызывает ответную реакцию (цель).Эта модель проиллюстрирована на рисунке.

    ПЕРЕДАТЧИК
    УРОВНИ ИНФОРМАЦИИ
    ПРИЁМНИК
    Ожидаемый результат     и
    Выраженная мысль     и
    Использованный код     и
    Переданный сигнал     и
    Цель     и
    Семантика     и
    Синтаксис     и
    Статистика     и
    Получаемый отклик
    Понятое значение
    Воспринятый код
    Полученный сигнал
     
    Уровни информации: Статистика

    Самое главное требование для того, чтобы некая информация могла быть передана от передатчика к приемнику - набор символов. Например,печатное сообщение передается с помощью алфавита. Чем длинней сообщение, тем больше информации может в него вместиться (хотя, конечно,можно много написать, сказав этим очень мало).
    Математическое определение понятия информации первым дал Клод Э. Шеннон (Claude E. Shannon) в статье "Математическая теория информации" в 1948 году. Введенная им единица измерения информации, "бит" (binary digits - двоичные цифры), позволяла делать количественные суждения о связях, прежде не поддавшихся математическому описанию.
    В простейшем случае, если есть всего лишь два символа, встречающиеся с одинаковой частотой, информация, содержащаяся в одном из этих символов, может быть определена единицей в один бит. Таким образом, согласно Шеннону, статистическое содержание информации в цепочке символов есть количественная величина. Она может быть выражена в битах. Плотность информации, то есть количество информации на единицу объема, есть мера эффективности хранения и передачи информации.

    Высочайшая плотность информации.

    Самая высокая известная нам плотность информации наблюдается в молекулах ДНК, которые содержат в себе гены живых клеток. Эти биохимические вместилища информации имеют 2 нм в диаметре (109 нм = 1 м) и закручены в спираль с шагом 3,4 нм.В результате объем такой спирали составляет 1,068x10-20 см3. Каждая спираль содержит десять химических символов (нуклеотидов), чем достигается плотность информации 9,4х1020 знаков на см3. Поскольку содержание информации в каждом из четырех разных нуклеотидов, составляющих ДНК - 2 бита, то статистическая плотность информации в ДНК - 1,88х1021 бит на см3.     Интересно сравнить эти величины с высочайшей плотностью информации в искуственных кремниевых микросхемах. Современный (1990г.) 1-Мбитовый DRAM (dynamic random-access memory) (Рис.3) позволяет хранить 1.048576 бит информации на площади примерно 50 мм2. В таком устройстве, толщиной примерно 0,5 мм, плотность хранения информации составляет 42000 бит/мм3, или 4,2х107 бит на см3. Информационная емкость ДНК, носителя информации живых существ, в 4,5х1013 раз выше,чем у мегачипа! Я бы хотел проиллюстрировать эту разницу одним примером. Общая сумма информации, собранной во всех библиотеках мира, оценивается в 1018 бит. Если бы эта информация была записана в молекуле ДНК, для нее хватило бы одного процента объема булавочной головки. Если бы вся эта информация была бы записана с помощью мегачипов, то высота их, сложенных в стопку, была бы больше расстояния от Земли до Луны.     Эффективность ДНК так высока потому, что ДНК - трехмерная молекула, а чип - двумерное хранилище информации. Кроме того, в чипе возмож- на лишь двухвариантная коммутация, что ведет к двоичному коду, а ДНК, с четырьмя различными нуклеотидами, имеет четверичный код, при котором одно состояние уже представляет два бита. Кроме того, даже самая продвинутая технология сверхвысокого уровня интеграции не дает нам возможности управлять чем-либо на уровне единичной молекулы.
    Как носитель информации, молекула ДНК эффективней кварцевых произведений человеческой высокой технологии в 45 миллионов миллионов раз.
    Шенноновское определение информации относится исключительно к статистическим взаимосвязям последовательностей символов и полностью игнорирует их семантический аспект. Эта теория делает возможным дать качественное описание таких характеристик языка, которые внутренне основываются на повторяемости. Вопрос же, несет или нет цепочка символов какое-либо значение, при этом не рассматривается. Проблема грамматической правильности на этом уровне рассмотрения также не ставится.

    Уровни информации: Синтаксис

    Сочленение символов, образующих слова, равно как и связь слов для образования предложения в значащем сообщении есть предмет сознательно установленных договоренностей. В любом языке, например, в английском, есть определенный словарный запас и некие договоренности о грамматике и порядке слов в предложении. Синтаксис живых языков - гораздо более сложная структура, чем в искусственных, например, в компьютерных языках. Синтаксис формализованного языка должен быть завершенным и однозначным, поскольку, например, компиллятор не имеет возможности сверяться с намерениями программиста. Некоторые языки используют не буквы, а другие символы - например, химические формулы, музыкальные ноты, электрические схемы, дорожные знаки, иероглифы, код азбуки Морзе (точки, тире), звуки, генетические коды, фигуры танца собирающих пыльцу пчел, язык жестов у глухонемых и прочая, и прочая...
    На синтаксическом уровне передачи информации символы определяют лексикон и грамматику. Для компьютерных программ, например, код определяется и исполняется однозначно. Он должен быть известен и приемнику, и передатчику информации, иначе они просто не смогут вступить в информационный обмен.
    При передаче информации сам код столь же важен, как и используемые в нем символы. Существование кода является основой мыслительного процесса. Наличие в любой системе основного кода свидетельствует о заложенной в ней разумной идее и опровергает возможность случайного ее возникновения.     Белки - основное вещество живых организмов, образующее, в частности, такие важные вещества, как ферменты, антитела, гемоглобины и гормоны. Эти вещества являются определяющими и для отдельного организма, и для вида в целом. Только лишь в человеческом теле есть не меньше 50 000 различных белков. Их структуры кодируются с помощью ДНК. Все белки в живых организмах состоят из 20 различных аминокислот, связанных в определенном порядке. Каждая аминокислота кодируется с помощью цепочки аминокислот в ДНК.
    Генетический код, как все другие типы кода, мог появиться лишь в результате разумного замысла, а не возникнуть случайно.
     
    Уровни информации: Семантика
         
    Последовательность символов и синтаксические правила формируют необходимые предпосылки для представления информации. Но основной аспект сообщения, однако же, состоит не в выбранном коде, форме символов или методе передачи (письменных, оптических, акустических, электрических, тактильных или обонятельных сигналах), но в его значении (семантике). Этот центральный аспект информации не играет никакой роли в ее хранении или передаче. Плата за передачу телеграммы зависит не от важности ее содержания, а просто от количества слов, однако отправителя и получателя, конечно же, интересует значение, и ни что иное. Именно значение превращает последовательность символов в информационное сообщение.
    Согласно утверждению Норберта Винера, основателя теории информации и кибернетики, информация не имеет физической природы, хоть и передается физическими средствами: "Информация - это информация, она ни вещество, ни энергия. Любой материализм, не способный принять это в расчет, в наше время больше не имеет шансов выжить". Семантический подход, таким образом, не оставляет места механицизму.     Компьютер - всего лишь синтаксическое приспособление, не различающее семантических категорий. Мы должны видеть различие между информацией и знанием, между алгоритмически обусловленными ветвями программы и обдуманными решениями, между определением величины и осознанием значения, между формальными процессами в дереве решений и индивидуальным выбором, между значимостью компьютерных операций и творческого мышления, между накоплением данных и процессом обучения. Все названное первым под силу компьютеру, и в этом его значение и область его применения, но здесь же лежат и ограничения его использования.
    Значения всегда представляют мыслительные понятия. Они не связаны с материей или энергией и происходят из разумного источника. Информация может накапливаться и передаваться физическими средствами лишь с помощью языка. Сама информация совершенно инвариантна по отношению к изменению способа ее передачи (акустической, оптической, электрической) и системы запоминания (мозг, книга, компьютерное устройство). Причина этой неизменности лежит в нематериальности ее природы.
     
    Уровни информации: Цель

    Цель является высшим уровнем передачи информации. Информация передается для того, чтобы вызвать соответствующий отклик у ее получателя. В языке значимые предложения связываются друг с другом таким образом, чтобы сформулировать просьбу, недовольство, вопрос, указание, которые должны вызвать определенное действие у получателя сообщения. Информация, переданная операцией, производимой механически, или отправлением функции биологического органа вызывает ответ, лишенный всяких степеней свободы. Перевод с иностранного языка и инстинктивное поведение дают пример ответа с ограничением степеней свободы.
    Компьютерные программы созданы для решения систем уравнений. Птица-самец своим пением старается привлечь внимание самки или предъявить права на территорию. С помощью рекламного объявления производитель старается убедить покупателя приобрести его продукцию.Этот целевой аспект информации нуждается в статистическом,синтаксическом и семантическом уровнях для получения ожидаемого отклика. Значения всегда представляют мыслительные понятия. Они не связаны с материей или энергией и происходят из разумного источника.
     
    Информация в живых организмах

    Жизнь проявляется в необычайном разнообразии форм. Даже одноклеточные организмы при всей своей кажущейся простоте более сложны и целенаправлены по своему замыслу, чем любые человеческие изобретения. И хотя материя и энергия неизбежно являются фундаментальными основами жизни, сами по себе они не определяют принципиальной разницы между живыми и неживыми системами. Одной из главных характеристик всех живых организмов все же является содержащаяся в них информация, которая-то и обеспечивает их жизнедеятельность (выполнение всех жизненных функций, генетическое воспроизводство).
    Вне сомнения, самой сложной системой обработки информации из всех существующих является человек. Если учесть все информационные процессы человека, как сознательные (язык; информационно управляемые осмысленные действия), так и бессознательные (информационно управляемые функции органов; гормональная система), они будут эквивалентны обработке 1024 бит ежедневно. Эта астрономическая цифра в миллион раз больше суммы человеческих знаний в 1018 бит, собранной в библиотеках всего мира.
     
    Заключение

    Информация по своей природе - умозрительная и нематериальная величина. Изучение природы информации на уровне статистики, кода, значения и цели решительно исключает материалистический подход к природе информационных систем. Источником систем обработки информации всех живых организмов должен быть непостижимой силы разум целеустремленного Творца.

    Сокращенное изложение доклада на 4-м Европейском Конгрессе по Креационизму в 1990 г.
    Похожие публикации
    Demo scene