Re[6]: Несколько дурацких вопросов по теории информации
От: R.K. Украина  
Дата: 20.01.09 17:50
Оценка:
Здравствуйте, Tilir, Вы писали:

T>Здравствуйте, Voblin, Вы писали:


V>>Блин, да в этом проклятом числе pi содержатся все возможные и невозможные варианты моего будущего! Какой выбрать? Скажите номер!


T>Осталось придумать надёжный метод отличать истинную информацию от ложной, ну так это техническая задача.


И правда, а мужики-то и не знали!
You aren't expected to absorb this
Re[16]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 17:54
Оценка:
Здравствуйте, deniok, Вы писали:

D>Конечно — аддитивность!

D>Если мы соединяем две системы с количеством состояний M и N, то общее число состояний становится M*N, а вот информация складывается: log(M * N) = log M + log N. Собственно логарифм — именно для этого.

Стоп. А как тогда объяснить квайны?
Так что аддитивность не канает. Вернее, канает, но как-то так странно, прихрамывая на обе ноги.
Re[6]: Несколько дурацких вопросов по теории информации
От: . Великобритания  
Дата: 20.01.09 22:19
Оценка:
Васильич wrote:

> Я, кстати, в изначальном сообщении не писал про конкретно человека, а

> скорее имел в виду любое мыслящее существо. Вокруг определения
Обычно вместо шаткого термина "мыслящее существо" используют "кибернетическая система", система с обратной связью. Но тут возникает та же проблема курица/яйцо.
Помню, как-то давным давно в фидо был флейм по этому поводу и свелось к спору мыслит ли сливной бачок.

А вообще, имхо, информация это просто интуитивное поняти, которое оказалось полезным в математике и появился удобный инструмент познания. Как, скажем, "точка" в геометрии. А копание в этом направлении уводит в дебри феномена "математическая интуиция".
Posted via RSDN NNTP Server 2.1 beta
но это не зря, хотя, может быть, невзначай
гÅрмония мира не знает границ — сейчас мы будем пить чай
Re[4]: Несколько дурацких вопросов по теории информации
От: . Великобритания  
Дата: 20.01.09 22:29
Оценка:
Klapaucius wrote:

> Потому, что в механистическом мире для любого произвольно заданного

> времени t, получив полную информацию о состоянии системы мы знаем это
> состояние и для любого произвольного времени t'. Т.е. информации ни
> больше ни меньше не становится. С.м. "Демон Лапласа".
Это почему? Если, конечно, описывать на компьютере, т.е. алгоритмически, т.е. по определению детерминировано, то естественно у нас получится детерминированный мир.

Однако, как я понимаю, неопределённости возникают даже в простых ситуациях (скажем, Задача 3 Тел). Достаточно в систему ввести действительные числа (которые уже неконструктивны, а значит неалгоритмизируемы), что уже можно напороться на хаос.
С другой стороны — насколько действительные числа физичны? Квантовая физика, и всё такое... Но и тут не беда. Количества вариантов (состояний, свойств, етс) 10^100 хоть теоретически и конечны, но на практике ведут себя как бесконечные и алгоритмически невычислимые.
Posted via RSDN NNTP Server 2.1 beta
но это не зря, хотя, может быть, невзначай
гÅрмония мира не знает границ — сейчас мы будем пить чай
Re[3]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 21.01.09 04:59
Оценка: +1
Здравствуйте, Voblin, Вы писали:

V>Вот именно, что "почти всегда". Если я вдруг получу из надёжнейшего источника информацию о том, что никакой человек по фамилии Медведев не является и никогда не являлся президентом России, то моя какая-никакая определённость в отношении государственного устройства РФ превратится в полную сумятицу. Т.е. информация вызвала увеличение неопределённости, хотя, по идее должна была её либо уменьшить, либо оставить прежней.


А кто сказал, что она не может быть отрицательной? Поскольку это лишь дельта энтропии, она может иметь любой знак.

DM>>Формула для энтропии неслучайно очень похоже выглядит в казалось бы разных областях — в теории информации, в квантах и в термодинамике. Она во всех этих случаях описывает меру нашего незнания о системе. И связь информации с вероятностями совершенно логична: вероятности используются для описания систем и событий, где мы не знаем точного состояния.


V>Вероятность — такая странная штука, что применять её надо осторожно.


Разумеется, просто надо уметь с ней обращаться. Тогда интуитивно кажущиеся "парадоксы" (типа нулевой вероятности) перестанут быть парадоксами и все заработает. Вероятностное описание мира вполне себе неплохо работает.

V>Б.Б.Кадомцев. Динамика и информация.


Да, вроде она.

V> Скачал, посмотрел. В основном физика. По части информации и её свойств — мизер.


Попробуйте внимательнее почитать, там можно ухватить самую физическую суть того, что такое информация. А о свойствах можно и у Шеннона почитать.

V>Ой, боюсь, что физика здесь не поможет. Притом никаким своим разделом. Информация и всё, что с ней связано — это чистая абстракция в духе математики и логики. Думаю, информация осталась бы информацией и её движение подчинялось бы тем же самым законам, если бы мы жили в четырёхмерном пространстве и двумерном времени.


Информация — такой же математический объект, как энтропия, температура или скорость. Физика лишь дает хорошую почву для применения этих абстракций.
Re[12]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 21.01.09 05:06
Оценка:
Здравствуйте, nikov, Вы писали:
N>Ты имеешь в виду, что неопределенность его координат должна стать макроскопической?
Совершенно верно. Красивые картинки здесь.
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re[6]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 21.01.09 05:18
Оценка:
Здравствуйте, Васильич, Вы писали:

В>Я, кстати, в изначальном сообщении не писал про конкретно человека, а скорее имел в виду любое мыслящее существо. Вокруг определения "мыслящий" уже сломано куча копий и, в основном, человек его применят очень интуитивно. Причем, я склоняюсь к тому, что человек называет "мыслящим" или "живым" того, кто как раз умеет перерабатывать информацию. Это может быть человек, кошка, слон, разумный океан с Соляриса и может быть даже амебы, деревья (вот не могу сказать точно, насколько они разумны)


А я склоняюсь к тому, что достаточно, чтобы у субъекта была некая модель, которую он использует в своей деятельности и может уточнять. Более мыслящим или живым он быть не обязан. У дерева нет моделей, оно информацию не обрабатывает. У архиватора — есть (частотное распределение символов и их цепочек), он уже обрабатывает. У кошки тоже есть, она тоже годится.

В>А вопрос с информацией в компьютерном смысле — очень даже интересен. Вот есть архиватор FreeArc, который сжимает и распаковывает файлы. Перерабатывает ли он информацию? Думаю, что нет. В этом случае он сродни снежинке, следующей физическим законам. Только для архиватора эти законы писаны человеком. Архиватор можно сравнить с горной рекой, вход которой узкий и бурный, а выход — широкий и плавно-текучий. Река трансформирует воду. Но перерабатывает ли она при этом информацию? Нет. Она всего лишь течет в рамках берегов, заданных природой (а архиватор — в рамках алгоритмов, написанных человеком).


У архиватора есть вероятностная модель источника данных (сжимаемого файла), и по мере его обработки он эту модель обновляет, уменьшая неопределенность, извлекая из файла информацию, и используя ее для дела. Я все же считаю, что это самый настоящий пример работы с информацией. Механистичность и детерминированность этого процесса не важны, ведь и про человека можно задать те же вопросы (насколько механистична работа его мозга или ума, насколько он детерминирован, и кто его запрограммировал).

В>Теперь расширим наш пример. Возьмем архиватор с самообучением, скажем на нейронных сетях. Подав на его вход файл, мы не просто получим на выходе сжатый файл, но и вместе с ним архиватор с измененным состоянием. Будет ли это являться получением архиватором новых знаний и, следовательно, причислением его к классу перерабатывающих информацию? Предлагаю высказать свои мнения по этому поводу, ибо я сам тоже не готов дать точный ответ


Нейронная сеть ничего принципиально не изменит. Самообучение в архиваторе (точнее, в энтропийном кодере) и так уже есть: сначала он вообще может ничего не знать о тексте, а под конец может продолжать предложения не хуже автора.

В>Кстати, все проводят парралели между общим понятием информации и информацией "компьютерного" плана. А эквивалентны ли эти понятия?


Думаю, да. Только нужно не путать информацию с данными. Последовательность битов еще не информация.
Re: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 21.01.09 07:42
Оценка: 10 (2) -1
Здравствуйте, Voblin, Вы писали:

V>С удивлением обнаружил, что не смотря на то, что вспахиваю ниву информационных технологий, о самом понятии "информация" имею довольно мутные представления. Самое печальное, что попытки найти внятную литературу по этой теме пока успехом не увенчались.


V>Ситуация выглядит весьма забавно. Мы научились искать, воспринимать, перерабатывать, копировать, накапливать, использовать информацию. Довольно часто у нас получается уничтожать информацию. Худо-бедно научились измерять её количество (либо тупо через потребную ёмкость канала, в битах, либо более точно, через колмогоровскую сложность). Не понятно, можем ли мы создавать информацию, но об этом позже. А вот о том, что это собственно такое — информация и каковы её свойства — полные непонятки.


Объективно информация не существует. Информация субъективна. Информация это свойство живой материи иметь представление и понятие о чем-либо. Информация это то, что создается в живой материи при отражении объективного мира и аккомодации.

V>У информации весьма сложные взаимоотношения с объективной реальностью. С одной стороны, бывает так, что информация объективно существует, и бывает так, что она объективно не существует. Например, я твёрдо уверен, что существует информация, называемая "А.С.Пушкин. Повести Белкина.", хотя, к своему стыду, в свой мозг через органы чувств я её не впитывал. Я могу купить эту книжку сегодня, могу — завтра, могу скачать её из Интернета, могу прослушать аудиокнигу. В любом случае, это будет один и тот же текст. Потому что этот текст когда-то был написан и сумел до нас дойти через множество материальных носителей в неизменном виде. А вот информации "А.С.Пушкин. Повести Грелкина." не существует. Объективно не существует. И даже бесполезно пытаться её найти.


То, что мы научились «перерабатывать, копировать, накапливать, использовать» и проч., это данные – информация, объективизированная при помощи знаковых (сигнальных) систем.

V>Несмотря на то, что, казалось бы, информация может объективно существовать, объективность её существования — под большим вопросом. Например, существуют ли тексты, написанные на ронго-ронго? Таблички есть. Неровности на этих табличках тоже есть. Извлечь информацию, сохранённую когда-то в этих неровностях, пока не удалось. И не факт, что когда-либо удастся. Т.е. существование информационного объекта зависит от того, существует ли объект или субъект, который может её воспринять.


Информация может передаваться только от одного живого субъекта к другому. При передаче информации работает схема: Информация 1 – Передатчик – Данные 1 – Канал передачи – Данные 2 – Приемник – Информация 2. Если приемник «работает на длинных волнах» а передатчик «на коротких», то Информация 2 = пусто, даже если остальная часть цепочки идеальна.

V>Считается, что при копировании информации её количество не изменяется. Считается, что обработка информации не увеличивает её количества. Информация может исчезать (те, кто кусал себе локти, не сделав вовремя бэкап, меня поймут). Вопрос: откуда информация берётся, если не существует операций, увеличивающих количество информации, зато есть масса обстоятельств, при которых она исчезает? Или всё-таки существуют явления, увеличивающие количество информации? Кто-то может сказать, что первичный информационный поток порождается квантовыми явлениями и радиоактивным распадом. Но ведь даже если бы мир был устроен строго механистично, в нём что, кончилась бы информация?


Источник и хранилище информации — живая материя. Как и каким местом она ее порождает — никто не знает. Вне субъекта информация не существует. Могут существовать только данные.

V>В привычной шенноновской триаде "передатчик -> канал -> приёмник" тоже что-то не так. Полярная звезда, тупо разбрасывая вокруг себя кванты электромагнитной энергии, не посылает путешественникам информацию о том, где находится север. То есть в передатчике информации вроде бы и нет, но приёмник её получает. При этом сам её, заметьте, не создаёт.


Полярная звезда – это знак, указывающий на Север, который оставил Бог или большой взрыв, кому как нравится. Информация уже находится у человека, который понимает (сам догадался в результате познавательной деятельности, или кто подсказал) этот знак. А если не понимает => информация = пусто. Аналогичные ситуации: лишайник с северной стороны дерева, следы животного на песке или любое другое явление объективной реальности, которое конкретный субъект может отразить и понять.

V>Понятие количества информации — это вообще та ещё сказка. Количество информации хоть и может быть выражено числом, но оно не аддитивно. Например, берём zip-файлы размером 100 и 50КБ, сжимаем их двоих, и получаем 120КБ. Бывает так, что информационный объект помещается сам в себя целиком, и даже остаётся место для какой-нибудь ерунды (которая тоже оказывается бесконечное количество раз рекурсивно включена в состав этого объекта).


У информации нет количества потому, что это «не материя и не энергия» ( (с) Винер). А ничего другого мы измерять не умеем. Все, что мы пытаемся измерять, это лишь количество данных. Бессмысленно измерять информацию, заложенную в картине художника, площадью и количеством использованных цветов.

V>В общем случае информационные объекты нельзя точно локализовать ни в пространстве, ни во времени. Возьмём, например, такой объект как "причины увеличения курса доллара". Нормальный такой инфообъект. Где он находится? И когда?


V>Может быть, "информация" — это целиком и полностью искусственное понятие, и рассуждать о его свойствах — это не многим лучше чем спорить о количестве демонов, помещающихся на кончике иглы? Однако, похоже, что сама суть понятия "информация" прошита куда-то вглубь структуры пространства-времени:

V>1. Есть мнение, что скорость света в вакууме ограничена именно скоростью распространения информации. Если бы информация распространялась мгновенно, изменение электрического поля по известным уравнениям Максвелла мгновенно порождало бы изменение магнитного поля во всей Вселенной, и никаких электромагнитных волн не возникало бы в принципе.
V>2. Что бы нам ни говорили полубезумные провидцы, ось времени, по которой мы все путешествуем — это именно тот вектор, по которому движется информация. И в обратную сторону не ходит. По крайней мере, в воспроизводимых экспериментах.

V>Оставаясь в рамках позитивной науки, можно с некоторой долей уверенности выделить следующие свойства информации:

V>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии. Если это принять, то все паранаучные рассуждения об информационном поле, глобальном информационном континууме и прочая муть сразу становятся ложными. Более того, фраза "В начале было Слово" сразу порождает еретический вопрос: "На чём было записано это Слово?".
V>2. Из точки А информация не может поступить в точку Б если между ними нет информационного канала. Если принять п.1, то это должен быть перенос либо вещества, либо энергии. Т.е. прорицатель должен принимать вещество или энергию, движущиеся в обратном направлении по оси времени.

Согласно Канту, время лишь форма мышления, данная нам априори, и к объективной реальности отношения не имеет. Может это и не так, но все другие определения времени, мне лично нравятся еще меньше. . Поэтому время, а так же пространство, следует рассматривать как свойства информации.

V>Какие ещё у информации есть свойства? Что на эту тему можно вкурить?


Еще немного ИМХО о информации здесь
Автор: craft-brother
Дата: 18.08.06
.


V>P.S. Только попробуйте сказать, что это не имеет отношения к философии программирования!


Вот в этом месте Вы совершенно правы!
+1024

Re[2]: Да, забыл! :(
От: craft-brother Россия  
Дата: 21.01.09 08:13
Оценка:
CB>Здравствуйте, Voblin, Вы писали:

V>>Что на эту тему можно вкурить?


Курить:

Результаты Гугла по словам ТЕОРИЯ ПОЗНАНИЯ (она же гносеология, эпистемология), СЕМИОТИКА, НЕОПОЗИТИВИЗМ, ПОСТСТРУКТУРАЛИЗМ…

Сам пытаюсь курить:

Л.ВИТГЕНШТЕЙН, «Философские исследования». Ж. ДЕЛЕЗ, «Логика смысла».

Получается плохо…

Re[16]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 21.01.09 11:30
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>Ну так учебники же не зря печатают, Шеннон сотоварищи немало интересных формул вывели, вот вам и свойства.


Формулы начинают хорошо работать не раньше того момента, когда мы приходим к единому всех устраивающему мнению относительно того, что мы считаем количественным показателем, и как мы его меряем. Выражение "2+3" не имеет решения, если 2 — это метры, а 3 — киловатты.

Относительно количества информации у меня всего два вопроса:
1. Количество информации, содержащейся в случайной последовательности — максимально или минимально? С точки зрения всех сжимающих — максимально. С точки зрения того, что "информация — это сведения, уменьшающие неопределённость наших знаний об исследуемом объекте" — минимально.
2. Компутеры бывают не только цифровыми (где понятие "бит" обретает вполне конкретный смысл, вычисляемый через логарифм), но и аналоговыми. Чем мерить обрабатываемую ими информацию, если при попытке найти логарифм мы всеми частями тела бьёмся о многочисленные выпирающие со всех сторон бесконечности? Хотите сказать, что аналоговые — это вообще не компутеры, а так, насмешка истории? А вот и нет! Некоторые задачи (в частности, поиск оптимального пути) аналоговым компутером решаются невероятно эффективно. И создаются человеком они именно для обработки информации.
Re[17]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 21.01.09 12:07
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Относительно количества информации у меня всего два вопроса:

V>1. Количество информации, содержащейся в случайной последовательности — максимально или минимально? С точки зрения всех сжимающих — максимально. С точки зрения того, что "информация — это сведения, уменьшающие неопределённость наших знаний об исследуемом объекте" — минимально.

Это зависит от целей. В первом случае задача — передать в точности ту же последовательность. Например, это сгенерированный для текущей сессии ключ аутентификации. Здесь случайность — не основная характеристика. То что она случайная лишь указывает нам, что мы не можем полагаться в этом деле на априорные корреляции (если бы мы знали, что это — русский текст, то могли бы использовать частоту букв и буквосочетаний для сжатия). Если же наша задача передать лишь факт случайности, то достаточно передать от поставщика лишь длину последовательности и сгенерировать её на стороне потребителя. Это второй случай, работающий для задач: "Возьмем случайную последовательность длинной 100, и ..."

V>2. Компутеры бывают не только цифровыми (где понятие "бит" обретает вполне конкретный смысл, вычисляемый через логарифм), но и аналоговыми. Чем мерить обрабатываемую ими информацию, если при попытке найти логарифм мы всеми частями тела бьёмся о многочисленные выпирающие со всех сторон бесконечности? Хотите сказать, что аналоговые — это вообще не компутеры, а так, насмешка истории? А вот и нет! Некоторые задачи (в частности, поиск оптимального пути) аналоговым компутером решаются невероятно эффективно. И создаются человеком они именно для обработки информации.


Курить, например, геометрическое определение вероятности. Фишка в том, что любой непрерывный процесс можно дискретезировать, важно, чтобы в интересных диапазонах отсчеты были расставлены достаточно часто. Выделяешь подходящую полную группу событий — и вперед.
Re[11]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 21.01.09 12:47
Оценка:
Здравствуйте, Sinclair, Вы писали:

S>Я не могу придумать эксперимент с конденсатом, который бы позволил обойти принцип причинности и скорость света.


На принцип причинности я не покушаюсь. Только на скорость света

S>Ну вот предположим, что мы охладили атом рубидия настолько, что он стал занимать макроскопический размер. Проверить его наличие в "ловушке" можно только одним способом: провзаимодействовать с ним. Но как только мы провзаимодействовали с атомом, он "выскочит" из ловушки и станет непригоден для наблюдения.


Но какие-то штуки этот конденсат позволяет делать. Судя по вики они там свет замедляли, атомами плевались... Т.е. как-то с ним взаимодействовать можно. Видимо, важен процент атомов, которые "на нуле", и пока этот процент достаточно высок, они всё друг в друга проникают и все в целом работают "как одна большая частица".

Но про возможность разделения на части с сохранением связи между ними, или хотя бы про возможность _измерить_, что во всём макроскопическом объёме состояние меняется мгновенно (довольно логичное предположение) это ничего не говорит.
Делай что должно, и будь что будет
Re[17]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 21.01.09 14:29
Оценка: +1
Здравствуйте, Voblin, Вы писали:

V>Стоп. А как тогда объяснить квайны?

V>Так что аддитивность не канает. Вернее, канает, но как-то так странно, прихрамывая на обе ноги.

Мне кажется, что вы хотите совместить простоту измеримости с одной стороны и учет всех нюансов интерпретации информации с другой. Так не получится. Подобную же философию можно развернуть вокруг вопроса: как это килограмм яблок и килограмм гвоздей — одно и то же? Не одно и то же, конечно. Просто масса одинаковая.

Если отделить "смысл для потребителя", который зависит от способа интерпретации (и может быть описан в рамках какой-то формальной или неформальной семантики), от фактического, объективного содержания информации в сообщении (или ещё где-то), то многие вопросы снимутся.
Re[2]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 21.01.09 15:03
Оценка:
Здравствуйте, craft-brother, Вы писали:


CB>Объективно информация не существует. Информация субъективна. Информация это свойство живой материи иметь представление и понятие о чем-либо. Информация это то, что создается в живой материи при отражении объективного мира и аккомодации.


...

CB>То, что мы научились «перерабатывать, копировать, накапливать, использовать» и проч., это данные – информация, объективизированная при помощи знаковых (сигнальных) систем.


Как возможность объективизации соотносится с декларированной выше сентенцией "Объективно информация не существует"?

CB>Информация может передаваться только от одного живого субъекта к другому. При передаче информации работает схема: Информация 1 – Передатчик – Данные 1 – Канал передачи – Данные 2 – Приемник – Информация 2. Если приемник «работает на длинных волнах» а передатчик «на коротких», то Информация 2 = пусто, даже если остальная часть цепочки идеальна.


Здрасьте, видеокамера, установленная у меня дома не передает мне по сети на ноутбук информацию о том, что там творится? Если ответ да, то тогда я заменяю себя наблюдающего на запись на жесткий диск, однако перед этим, например, напускаю программку, выкидывающую статическую составляющую. Не работает ли она с поступающей информацией? Вы, конечно, можете настаивать на том, что когда на монитор смотрю я, то ко мне поступает информация, а как только обработкой начинает заниматься программа, то к ней поступают данные, но, честно говоря, такая дистинкция не кажется мне существенной.

Я, кстати, прекрасно понимаю, что в отличие от программы, я могу дать огромное (потенциально бесконечное) количество интерпретаций тому, что мне передается. А программа настроена только на фиксированное количество таких интерпретаций: пошла динамика в картинке => начать писать на диск; прекратилась динамика => остановить запись. Тем не менее часть "отражения объективного мира и аккомодации" я способен переложить на компьютер, причем ограниченность этого перекладывания задается лишь моей ограниченностью в рационализации своих реакций.
Re[10]: Несколько дурацких вопросов по теории информации
От: Mirrorer  
Дата: 21.01.09 15:20
Оценка:
Здравствуйте, D. Mon, Вы писали:


DM>>>Протестую. Простой пример: пишем программу, которая ответит на вопрос "чему равно 10001-е по счету простое число?".


DM>Как это уже содержащееся? Покажите мне его в этом коде:


DM>
DM>arr=[]
DM>(2..120000).each{|i| (2..Math.sqrt(i).floor).detect{|j| i%j==0} or arr<<i}
DM>p arr[10000]
DM>


Что-то сильно длинно
[j]
p: 100001
1299743

p: 100000001
2038074761
[/j]
Re: Несколько дурацких вопросов по теории информации
От: goto Россия  
Дата: 21.01.09 16:14
Оценка:
Тема очень интересна. Все упирается в определения, которые всерьез дать очень трудно (вопрос ведь был не совсем технический, как я понимаю). Скажем, являются ли информацией сформулированные законы природы? Являются ли информацией законы действующие, но человеком еще не открытые? Можно попытаться определениями отделить известное от неизвестного, субъективное от объективного. Дальше можно попытаться разобраться с тем, нуждается ли информация в материальном носителе? Может ли она быть создана, уничтожена? И с т.п.

Ученый сидел и писал дикторскую по истории, сохраняя ее на флэшку, а потом эту флэшку трагическим образом сломал (допустим, это был русский ученый). Исчезла ли информация? Ведь сами исторические факты никуда не делись, а ключевые мысли и выводы автора остались в его голове. Была ли вообще на флэшке информация? Если часть информации все же была утрачена, то какая?

Для примера, можно завернуть и такое: не информация нуждается в материальном носителе, а сама является носителем. Можно еще как-то, простор для размышлений есть. Мне кажется, эта тема сама по себе огромная и ключевая, она еще ждет "общественного" осмысления. IT-область, как я подозреваю, еще только начинает создавать предпосылки для такого явного осмысления (научных революций что-то давно не было).
Re[4]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 21.01.09 16:32
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>Информация — такой же математический объект, как энтропия, температура или скорость. Физика лишь дает хорошую почву для применения этих абстракций.


Уфффф.... Этак и курс доллара можно объявить математическим объектом.

Физика, кстати, даёт не самую хорошую почву для исследования свойств информации. Биология и социология в этом смысле намного удобнее.
Re[17]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 21.01.09 17:25
Оценка:
Здравствуйте, Voblin, Вы писали:

V>1. Количество информации, содержащейся в случайной последовательности — максимально или минимально? С точки зрения всех сжимающих — максимально. С точки зрения того, что "информация — это сведения, уменьшающие неопределённость наших знаний об исследуемом объекте" — минимально.


Для сжимающих оно максимально, т.к. дает больше всего информации об источнике данных — в каждый момент времени имеющейся информации недостаточно для предсказания. Для человека же обычно случайная последовательность информации не содержит, т.к. он не пытается строить ее модель. Пытался бы — содержала бы.

V>2. Компутеры бывают не только цифровыми (где понятие "бит" обретает вполне конкретный смысл, вычисляемый через логарифм), но и аналоговыми. Чем мерить обрабатываемую ими информацию, если при попытке найти логарифм мы всеми частями тела бьёмся о многочисленные выпирающие со всех сторон бесконечности?


А сам человек аналоговый или цифровой? Как бы то ни было, если я могу формализовать модель, о которой я получаю информацию, я могу и посчитать ее объем в битах.
Re[5]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 21.01.09 17:27
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Уфффф.... Этак и курс доллара можно объявить математическим объектом.


А каким же еще? Любое число — математический объект. А тут даже не просто число, а результат математического вычисления.

V>Физика, кстати, даёт не самую хорошую почву для исследования свойств информации. Биология и социология в этом смысле намного удобнее.


Их можно считать частными разделами физики и математики.
Re[3]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 22.01.09 06:55
Оценка:
Здравствуйте, deniok, Вы писали:

D>Как возможность объективизации соотносится с декларированной выше сентенцией "Объективно информация не существует"?


Попытаюсь объяснить. Согласно моему представлению, информация это то, что рождается в субъекте живой природы в результате познавательной деятельности. Эта информация может быть представлена (отражена, объективизирована) в некотором сообщении (данных). Например, я могу сказать «Проблема округлости квадрата неразрешима». С точки зрения русского языка фраза бессмысленна и никто не получит из нее никакой информации. Но если эта фраза пароль для секретного агента 007, то этот субъект из этой фразы извлечет информацию: «пришел связник» . Таким образом, данные лишь способ отражения информации на материальном носителе. Данные снова могут стать (а могут и не стать) информацией только после их интерпретации субъектом. В этом смысле информация всегда субъективна.

Пример. Подробный проект где-то существующего дома – это не сам дом. Проект снова сможет снова стать домом только тогда, когда кто-то построит дом по этому проекту. Но это будет уже совсем другой дом.

D>Здрасьте, видеокамера, установленная у меня дома не передает мне по сети на ноутбук информацию о том, что там творится? Если ответ да, то тогда я заменяю себя наблюдающего на запись на жесткий диск, однако перед этим, например, напускаю программку, выкидывающую статическую составляющую. Не работает ли она с поступающей информацией? Вы, конечно, можете настаивать на том, что когда на монитор смотрю я, то ко мне поступает информация, а как только обработкой начинает заниматься программа, то к ней поступают данные, но, честно говоря, такая дистинкция не кажется мне существенной.


D>Я, кстати, прекрасно понимаю, что в отличие от программы, я могу дать огромное (потенциально бесконечное) количество интерпретаций тому, что мне передается. А программа настроена только на фиксированное количество таких интерпретаций: пошла динамика в картинке => начать писать на диск; прекратилась динамика => остановить запись. Тем не менее часть "отражения объективного мира и аккомодации" я способен переложить на компьютер, причем ограниченность этого перекладывания задается лишь моей ограниченностью в рационализации своих реакций.


Все что фиксирует видеокамера и обрабатывает компьютер по заданному тобой алгоритму это лишь отражение объективного мира на разные носители и преобразование этого отражения, но никак не аккомодация. Аккомодация это свойство живой материи понимать (осмысливать) поступивший сигнал, изменять свою внутреннюю картину мира и свое поведение. Никакое преобразование данных не породит новый смысл.

Где-то так...

Все написанное, разумеется, ИМХО.
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.