Re[4]: Пофантазирем про хранение данных
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 27.10.16 11:29
Оценка:
Здравствуйте, Cyberax, Вы писали:

C>Информационная энтропия == термодинамической. Спроси у духа Больцмана.


Боюсь, дух Больцмана ничего не скажет про информационную энтропию. Если, конечно, он не тусит на том свете с духом Шеннона

V>>Никаких других способов связать термодинамическую энтропию, которая про газы, тепловые машины и цикл Карно, с энтропией информационной, которая мера неопределённости получателя сообщения, мне неизвестно.

C>https://en.wikipedia.org/wiki/Entropy_in_thermodynamics_and_information_theory

В этой статье есть весьма ценный раздел "Criticism".

От себя хочу добавить, что схожесть формул — отнюдь не признак сущностного соответствия. Из того, что формула для расчёта средней продуктивности стада коров в целом может быть похожа на закон Ома, совсем не следует, что количество коров и электрическое сопротивление суть одно и то же

Что до логарифма, то он как чёртик из табакерки выскакивает всякий раз, когда относительные величины нам интереснее абсолютных. Например, динамику биржевых индексов и цен на продукты интереснее смотреть в логарифмической шкале.
Жутковатое "pi*ln(pi)" — это просто учёт того обстоятельства, что не все кусочки суммируемых количеств равнозначны. В термодинамике это может быть полезно, например, при рассмотрении высокого столба газа (в состоянии равновесия внизу молекул естественным образом больше, чем вверху), а при кодировании данных может быть полезно понимание ожидаемой встречаемости символов (можно предположить, что в текстовом файле символ "а" встречается чаще, чем "~"). С таким же успехом при оценке динамики продуктивности коров может оказаться полезной поправка на возрасты и породы этих самых коров.

Неопределённость Гейзенберга — да, это зачётная тема. Действительно складывается сильное ощущение, что где-то внутри частицы есть строго ограниченное количество некой субстанции, которую мы можем определить как "информация". Хочешь, выкачай из частицы много бит информации о местоположении, но тогда она тебе отдаст мало бит информации о своей энергии. Хочешь — наоборот. Но поиметь и то, и другое одновременно — извините, никак. Биты нонче дефицит и больше, чем есть у частицы, она не отдаст. Но давайте разберёмся, имеет ли эта "информация" какое-нибудь отношение к той информации, о которой мы говорим во всех остальных случаях? Ну, кроме того, что у нас сейчас исторически сложилась практика хранения данных на состояниях частиц, и раз так, то неопределённость Гейзенберга нам даёт теоретический предел плотности записи?
Ту информацию, о которой мы говорим по жизни, мы получаем не только из присутствия объектов/явлений, но и из их отсутствия. Если в комнате тихо, то из это для нас достаточный признак того, что радио выключено. Если за окном темно хоть глаз коли (видимые фотоны отсутствуют), то это воспринимаем как сигнал, что сейчас ночь. Да что уж говорить, когда когда мы читаем книгу (чёрным по белому), то собственно буковки воспринимаем через отсутствия фотонов. Я ещё как-то готов поверить в то, что в материальном объекте (частице) содержится какая-то загадочная субстанция, но согласиться с тем, что эта же загадочная субстанция содержится в отсутствующем материальном объекте — это, извините, выше моих сил.

Короче, есть некоторая потребность отделить мух от котлет. Пусть Больцман и Гейзенберг занимаются своими энтропиями и "информациями", а мы в своём инфотехе будем заниматься своими. И не будем забывать, что в данном случае одними и теми же словами обозначаются совсем разные сущности. Примерно как бочка с огурцами и полёты вверх тормашками.
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.