Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 21.12.09 13:25
Оценка: 114 (9) +1 :))
Здравствуйте, уважаемые,

Некоторое время назад мы здесь много и весьма интересно рассуждали о природе информации.
В качестве "продолжения банкета" предлагаю вам свою статью Как найти "информацию".

Если можно, маленькая просьба. Если у кого-то есть знакомые, профессионально занимающиеся этой тематикой (философия информации, философия, теоретическая информатика и т.п.), очень бы мне хотелось на них выйти.
Чтобы порка была произведена профессионально
Re: Статья: Как найти "информацию"
От: SergH Россия  
Дата: 21.12.09 20:31
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Чтобы порка была произведена профессионально


Ну, я тебя всё же любительски выпорю, ок? Без деталей.

> Сигнал + Контекст => Информация


Угу. Но это как яйцеклетка и сперматозоид. Не совсем корректно говорить, что человек это яйцеклетка + сперматозоид, это человеки так возникают, дальше они как-то иначе живут.

> Информация не существует без физического носителя


Это ты про сигнал?
Но мы же выяснили, что сигнал != информация. Я если учесть мою поправку, то это _совсем_ не информация. А что такое информация мы вообще не знаем.

> Непротиворечивость информации I1 контексту K


Т.е. истина контекстно-зависима и относительно? И на вопрос "что есть Истина"? Мы отвечаем "нет такого понятия, у каждого своя точка зрения, своя истина, в каждый данный момент"...
Делай что должно, и будь что будет
Re: Статья: Как найти "информацию"
От: Шахтер Интернет  
Дата: 21.12.09 22:40
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, уважаемые,


V>Некоторое время назад мы здесь много и весьма интересно рассуждали о природе информации.

V>В качестве "продолжения банкета" предлагаю вам свою статью Как найти "информацию".

V>Если можно, маленькая просьба. Если у кого-то есть знакомые, профессионально занимающиеся этой тематикой (философия информации, философия, теоретическая информатика и т.п.), очень бы мне хотелось на них выйти.

V>Чтобы порка была произведена профессионально

Ну давай пройдемся.

Утверждение №1: Информация существует

+

Утверждение №2: Информация существует как-то странно

На самом деле, ничего странного или нового в этом нет. Существует ли электрон? А электромагнитное поле? А тёмная материя?
На самом деле, это всего лишь идеи, которые мы тем или иным способом соотносим с реальным миром.

Вот хорошая аналогия -- фонон. Кто-то (если не ошибаюсь, это был Ландау), заметил, что механические колебания твёрдого тела можно хорошо описвать, если предположить, что в твердом теле "живет" газ из квазичастиц -- квантов колебания кристалической решетки. Математически это обычный газ. Только физически частиц этого газа не существует -- это чистой воды абстракция. Или дырки в полупроводние. Тоже абстракция, только у неё есть масса и заряд.

Утверждение №3: Информация не существует без физического носителя

Последователи Платона с тобой бы не согласились. Но пока им нечего предявить -- это правда.

Утверждение №4: Передача информации и её хранение – это одно и то же

Непонятно утверждение.

Утверждение №5: Информация инвариантна физическому представлению, информационный процесс инвариантен его физической реализации

Не совсем. Попробуй посчитать что-нибудь серьёзное на плохом компьютере -- ничего не выйдет. Или сохранить информацию на плохом носителе информации.

Утверждение №6: Инфорода не существует

— Антиэнтропия. У Пенроуза очень хорошо это обясняется, не буду повторятся.

Утверждение №7: Информация не аддитивна

Опять не понятное утверждение.

Утверждение №8: Вычисление не увеличивает количество информации

Вначале следует сказать, что такое количество информации.

Утверждение №9: Информация не меряется в битах

А в чем? И как? Это вопрос дефиниций и соглашений.

Утверждение №10: Информация и данные – это одно и то же

Нет, не одно. Данные -- это биты. Они не несут никакой информационной нагрузки вне обрабатывающей их системы. Книга мертва, пока не читателя, способного её прочитать.
Понятие информации принципиально неотделимо от среды, в которой она живет. Ты же сам об этом дальше пишешь.?
В XXI век с CCore.
Копай Нео, копай -- летать научишься. © Matrix. Парадоксы
Re: Статья: Как найти "информацию"
От: vdimas Россия  
Дата: 21.12.09 23:12
Оценка: 10 (1)
Здравствуйте, Voblin, Вы писали:

Описка:
"Никому не придёт (в голову?) мерить силу тока в вольтах и расстояние в литрах."

Что касается самой статьи, то на мой взгляд маловато отделения мух от котлет. Т.е. ты говоришь о субъективности информации, но не договорился заранее о терминологии, ибо есть термин "информации" как абстрактного нематериального понятия, и есть термин "информации" в объективном физическом смысле (квантовая физика). И единица последнего значения очень даже есть есть — это минимально-различимое потенциальным наблюдателем "нечто" у состояний, на сегодня это квант.
Re: Статья: Как найти "информацию"
От: sereginseregin Россия http://daremanager.sourceforge.net/ru/
Дата: 22.12.09 07:32
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, уважаемые,


V>Некоторое время назад мы здесь много и весьма интересно рассуждали о природе информации.

V>В качестве "продолжения банкета" предлагаю вам свою статью Как найти "информацию".

V>Если можно, маленькая просьба. Если у кого-то есть знакомые, профессионально занимающиеся этой тематикой (философия информации, философия, теоретическая информатика и т.п.), очень бы мне хотелось на них выйти.

V>Чтобы порка была произведена профессионально

Бессмысленно исследовать что-то только по тому что оно существует. К каким выводам вы придёте? Какую цель достигните?

Я бы рассматривал Информацию в контексте процесса управления. Влияет Сигнал на поведение Объекта — это Информация, не влияет — это просто неосмысленные Объектом Данные.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.12.09 08:56
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Ну, я тебя всё же любительски выпорю, ок? Без деталей.


Я не мазохист, но в данном случае порка заведомо полезнее поглаживания по голове.

>> Сигнал + Контекст => Информация

SH>Угу. Но это как яйцеклетка и сперматозоид. Не совсем корректно говорить, что человек это яйцеклетка + сперматозоид, это человеки так возникают, дальше они как-то иначе живут.

Ну зачем же так сразу? Яйцеклетка и сперматозоид — это две половинки, из которых начинает развиваться целое. А сигнал и контекст — это не половинки. Они не складываются методом суммирования.

>> Информация не существует без физического носителя

SH>Это ты про сигнал?
SH>Но мы же выяснили, что сигнал != информация. Я если учесть мою поправку, то это _совсем_ не информация. А что такое информация мы вообще не знаем.

Может быть, здесь действительно есть некоторая терминологическая шероховатость. Но не очень страшная. Речь идёт о том, что для того, чтобы было что-либо информационное, обязательно нужно хоть что-нибудь материальное. Для передачи сигнала нужен материальный носитель, для выполнения обработки нужен материальный обработчик.

>> Непротиворечивость информации I1 контексту K

SH>Т.е. истина контекстно-зависима и относительно? И на вопрос "что есть Истина"? Мы отвечаем "нет такого понятия, у каждого своя точка зрения, своя истина, в каждый данный момент"...

Угу. Такова селява
Немножко спасает то, что есть довольно много контекстов, которые существуют в надличностных сущностях. Например, в нашем обществе существует договорённость, что бумажка определённого вида, на которой написано "1000 рублей" — это ценная вещь. И для всех россиян это в большей или меньшей степени является истиной. А вообще, конечно, это (физически) просто кусок целлюлозы с нулевой питательной и почти нулевой энергетической ценностью.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.12.09 09:21
Оценка:
Здравствуйте, vdimas, Вы писали:

V>Описка:

V>"Никому не придёт (в голову?) мерить силу тока в вольтах и расстояние в литрах."

Спасибо огромное. Исправил.

V>Что касается самой статьи, то на мой взгляд маловато отделения мух от котлет. Т.е. ты говоришь о субъективности информации, но не договорился заранее о терминологии, ибо есть термин "информации" как абстрактного нематериального понятия, и есть термин "информации" в объективном физическом смысле (квантовая физика). И единица последнего значения очень даже есть есть — это минимально-различимое потенциальным наблюдателем "нечто" у состояний, на сегодня это квант.


Не вижу разницы. Когда мы говорим о различении, и тем более о наблюдателе, мы сразу же предполагаем наличие субъекта (живого или не живого — не важно), которому не всё равно, какое там состояние у частицы.
Re: Информация не существует без физического носителя
От: Кондраций Россия  
Дата: 22.12.09 09:27
Оценка:
Подумалось на тему сабжа...
Если утверждение "Информация не существует без физического носителя" верно, то скорость передачи информации не может (в рамках нынешних представлений о мире) превысить скорость света. Так?
С другой стороны, известен один из парадоксов теории Эйштейна, когда скорость солнечного зайчика, перемещающегося из точки А в точку Б, может превысить скорость света, т.к. зайчик не является материальным объектом. Получается, что информацию о том, что зайчик покинул точку А, в точке Б могут получить со скоростью, превышающей скорость света.
Следовательно, информация может существовать без физического носителя? Или в рассуждениях ошибка?
Сообщение заговорено потомственным колдуном, целителем и магом в девятом поколении!
Модерирование или минусование сообщения ведет к половому бессилию, венерическим заболеваниям, венцу безбрачия и диарее!
Re[2]: Информация не существует без физического носителя
От: Кондраций Россия  
Дата: 22.12.09 09:45
Оценка:
Здравствуйте, Кондраций, Вы писали:

К>Подумалось на тему сабжа...

К>Если утверждение "Информация не существует без физического носителя" верно, то скорость передачи информации не может (в рамках нынешних представлений о мире) превысить скорость света. Так?
К>С другой стороны, известен один из парадоксов теории Эйштейна, когда скорость солнечного зайчика, перемещающегося из точки А в точку Б, может превысить скорость света, т.к. зайчик не является материальным объектом. Получается, что информацию о том, что зайчик покинул точку А, в точке Б могут получить со скоростью, превышающей скорость света.
К>Следовательно, информация может существовать без физического носителя? Или в рассуждениях ошибка?
Это уже предусмотрено... "Специально не делаю акцента на то, что этот объект должен иметь чётко выраженное
физическое воплощение. В принципе, информация может быть извлечена из другой
информации, которая извлекается из другой информации… и где-то только в конце цепочки у
нас появляется физическое воплощение."
Сообщение заговорено потомственным колдуном, целителем и магом в девятом поколении!
Модерирование или минусование сообщения ведет к половому бессилию, венерическим заболеваниям, венцу безбрачия и диарее!
Re[3]: Статья: Как найти "информацию"
От: SergH Россия  
Дата: 22.12.09 09:58
Оценка: 1 (1)
Здравствуйте, Voblin, Вы писали:

>>> Сигнал + Контекст => Информация

SH>>Угу. Но это как яйцеклетка и сперматозоид. Не совсем корректно говорить, что человек это яйцеклетка + сперматозоид, это человеки так возникают, дальше они как-то иначе живут.

V>Ну зачем же так сразу? Яйцеклетка и сперматозоид — это две половинки, из которых начинает развиваться целое. А сигнал и контекст — это не половинки. Они не складываются методом суммирования.


Яйцеклетка и сперматозоид тоже не складываются методом суммирования. Там чутка более сложный процесс происходит. Или ты думаешь, они там 9 месяцев суммируются, никак посчитать не могут? Можно уподобить яйцеклетку контексту, в который попадает сигнал. А можно наоборот провести аналогию с сигналом, на который обращается внимание. Не важно.

Важно, что это процесс _происхождения_ информации (один из возможных процессов, мы не доказывали, что других нет, хотя можем взять за аксиому). Это не _информация_ как она есть.

V>Может быть, здесь действительно есть некоторая терминологическая шероховатость. Но не очень страшная. Речь идёт о том, что для того, чтобы было что-либо информационное, обязательно нужно хоть что-нибудь материальное. Для передачи сигнала нужен материальный носитель, для выполнения обработки нужен материальный обработчик.


Передача и обработка это понятно. Это без физического представления невозможно. Потому что передаются и обрабатываются _сигналы_, а не информация. Ты же сам разделил эти понятия.

В голове что происходит?

V>Немножко спасает то, что есть довольно много контекстов, которые существуют в надличностных сущностях. Например, в нашем обществе существует договорённость, что бумажка определённого вида, на которой написано "1000 рублей" — это ценная вещь. И для всех россиян это в большей или меньшей степени является истиной. А вообще, конечно, это (физически) просто кусок целлюлозы с нулевой питательной и почти нулевой энергетической ценностью.


Точно, что-то я ступил.
Это не немножко спасает, это окончательно спасает.
Собственно, все религиозно-мистические утверждения говорят о существовании общего для всех контекста. Типа "создан по образу и подобию".
Делай что должно, и будь что будет
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.12.09 11:00
Оценка:
Здравствуйте, Шахтер, Вы писали:

V>>Утверждение №2: Информация существует как-то странно

Ш>На самом деле, ничего странного или нового в этом нет. Существует ли электрон? А электромагнитное поле? А тёмная материя?
Ш>На самом деле, это всего лишь идеи, которые мы тем или иным способом соотносим с реальным миром.

Юмор заключается в том, "как-то странно" существует не только информация. Все объекты материального мира, которые мы видим, трогаем, едим тоже существуют не совсем банальным образом. Объективно существующий кусок пространства с объективно происходящими в нём процессами является камнем только потому, что есть соразмерные с ним существа, которые могут воспринять его как некий единый объект, обозвать его камнем и, пользуясь имеющимися знаниями об объектах типа "камень", учесть его при формировании своего поведения.
Не надо тёмной материи. Камень (кстати, он фактически почти на 100% состоит из вакуума) — гораздо более удобный предмет для рассуждения.

V>>Утверждение №3: Информация не существует без физического носителя

Ш>Последователи Платона с тобой бы не согласились. Но пока им нечего предявить -- это правда.

Только те последователи, которые до конца не поняли то, что говорил их учитель. Платон никогда не говорил о том, что конкретная коза получается из идеальной козы методом отбрасывания какой-то мифической тени из мира идей в реальный мир. Платон не был глуп. Он всего лишь (ни фига себе "всего лишь", да на этом базируется всё, в том числе и современное, научное мировоззрение) говорил о том, что изучая свойства конкретных коз (Зойки, Маньки и прочих рогатых) мы должны стремиться понять свойства "идеальной", обобщённой козы, и потом уже в своём общении с конкретными козами использовать полученные знания. И быть готовым к тому, что реальные козы могут немножко отличаться от идеальной.
Звучит это всё банально, но до Платона этот очевидный логический шаг не был узаконен. Без допущения о том, что мы имеем право рассуждать об "идеальных" вещах выражение "тело массой M движется равномерно и прямолинейно со скоростью V" вообще не имеет смысла. Что за тело? Чьё тело? Какого оно цвета? Как пахнет? Не понятно...

V>>Утверждение №4: Передача информации и её хранение – это одно и то же

Ш>Непонятно утверждение.

Обычно в своих рассуждениях разделяют хранение информации и её передачу. Считается, что запоминать что-то и что-то высказывать — это совсем разные процессы. Я просто говорю, что это одно и то же. Формат сообщения и формат записи на хард мы конструируем, пользуясь одними и теми же принципами.

V>>Утверждение №5: Информация инвариантна физическому представлению, информационный процесс инвариантен его физической реализации

Ш>Не совсем. Попробуй посчитать что-нибудь серьёзное на плохом компьютере -- ничего не выйдет. Или сохранить информацию на плохом носителе информации.

А ещё не надо пытаться забивать гвоздь надувным молотком

V>>Утверждение №6: Инфорода не существует

Ш>- Антиэнтропия. У Пенроуза очень хорошо это обясняется, не буду повторятся.

Пенроуз — хороший математик. И хороший популяризатор науки. Про всё остальное скромно промолчу.
От себя лишь могу сказать, что при проектировании информационных систем я ни разу в конструкцию изделия не закладывал никаких нематериальных емкостей для накопления инфорода и нематриальных каналов для его передачи. Всё почему-то в результате получается грубо и механистично. Электрические сигналы, магнитные домены, накопление электрических зарядов и т.п. вещи. Что я делаю не так?

V>>Утверждение №7: Информация не аддитивна

Ш>Опять не понятное утверждение.

Есть аддитивные величины (например, масса, импульс, деньги), а есть не аддитивные (например, температура). Информация не аддитивна. Это не очевидно, но доказуемо. Только и всего.

V>>Утверждение №8: Вычисление не увеличивает количество информации

Ш>Вначале следует сказать, что такое количество информации.

Это было лирическое отступление на тему того, что в сладкой парочке "алгоритм + исходные данные" уже содержится результат вычисления. А также мне было важно донести до общественности, что не всякая обработка информации является вычислением (привет Пенроузу).

V>>Утверждение №9: Информация не меряется в битах

Ш>А в чем? И как? Это вопрос дефиниций и соглашений.

А ни в чём и никак. И это важно.

V>>Утверждение №10: Информация и данные – это одно и то же

Ш>Нет, не одно. Данные -- это биты. Они не несут никакой информационной нагрузки вне обрабатывающей их системы. Книга мертва, пока не читателя, способного её прочитать.
Ш>Понятие информации принципиально неотделимо от среды, в которой она живет. Ты же сам об этом дальше пишешь.?

Поздравляю тебя и себя. Ты меня правильно понял.
Понятие "данные" явно лишнее, и у меня был соблазн приравнять его понятию "сигнал". Но потом всё же решил приравнять его "информации". К чему-то его обязательно нужно было оттащить.

В толковом словаре Ушакова:

ДА'ННЫЕ, ых, ед. да́нное, ого, ср. (книжн.). — Сведения, обстоятельства, служащие для какого-н. вывода, решения. Получены д., что здесь скрывается преступник. Нет достаточных данных для возбуждения уголовного преследования.

Больше похоже на "информацию" т.к. в большинстве существующих определений информация — это тоже сведения.

В википедии:

Да́нные (калька от лат. data) — это представление фактов и идей в формализованном виде, пригодном для передачи и обработки в некотором информационном процессе.

Больше похоже на "сигнал".

Так как мы говорим на русском языке, а не на википедском, решил приравнять к "информации".
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.12.09 11:05
Оценка:
Здравствуйте, sereginseregin, Вы писали:

S>Бессмысленно исследовать что-то только по тому что оно существует. К каким выводам вы придёте? Какую цель достигните?


Но если стойкое дремучее непонимание чего-то весьма ощутимо мешает, то это "что-то" есть смысл попытаться исследовать.

S>Я бы рассматривал Информацию в контексте процесса управления. Влияет Сигнал на поведение Объекта — это Информация, не влияет — это просто неосмысленные Объектом Данные.


Объекты, поведение и процесс управления — тоже интересные темы. Но не надо даже пытаться их глубоко копать, не разобравшись с "информацией".
Re[2]: Информация не существует без физического носителя
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.12.09 11:10
Оценка: 2 (1) +2
Здравствуйте, Кондраций, Вы писали:

К>С другой стороны, известен один из парадоксов теории Эйштейна, когда скорость солнечного зайчика, перемещающегося из точки А в точку Б, может превысить скорость света, т.к. зайчик не является материальным объектом. Получается, что информацию о том, что зайчик покинул точку А, в точке Б могут получить со скоростью, превышающей скорость света.

К>Следовательно, информация может существовать без физического носителя? Или в рассуждениях ошибка?

Ага. Ошибка. Оставьте в покое старика Эйнштейна. Когда мы гоним солнечный зайчик из А в Б, то информация передаётся не из А в Б, а из Ц (место, где у нас зеркальце) в А и Б.
Сорри. Не информация, а сигнал
Re[4]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.12.09 11:44
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Можно уподобить яйцеклетку контексту, в который попадает сигнал. А можно наоборот провести аналогию с сигналом, на который обращается внимание. Не важно.


Какая-то нехорошая аналогия. Много непонятного и неоднозначного. Не будем её использовать, ладно?

SH>Важно, что это процесс _происхождения_ информации (один из возможных процессов, мы не доказывали, что других нет, хотя можем взять за аксиому). Это не _информация_ как она есть.


Это больше похоже на процесс вычисления нового материального объекта — организма из двух половинок материального мультиквайна.

SH>Передача и обработка это понятно. Это без физического представления невозможно. Потому что передаются и обрабатываются _сигналы_, а не информация. Ты же сам разделил эти понятия.

SH>В голове что происходит?

В голове наверняка происходит то же самое. И то, что происходит в голове — оно самое интересное и есть.

SH>Собственно, все религиозно-мистические утверждения говорят о существовании общего для всех контекста. Типа "создан по образу и подобию".


Но делают это очень криво, мутно (не исключено, что слово "mystic" и слово "mist" (туман) изначально были однокоренными) и не конструктивно. Кстати, они неявно подразумевают возможность существования "универсального контекста", невозможность которого довольно легко доказывается.
Re[5]: Статья: Как найти "информацию"
От: SergH Россия  
Дата: 22.12.09 11:53
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Какая-то нехорошая аналогия. Много непонятного и неоднозначного. Не будем её использовать, ладно?


Не вопрос, я и не предполагал её использования. Мне был нужен неаддитивный процесс. Можно, например, приготовление каши из крупы и воды/кастрюли/плиты/газа рассмотреть. Понятно, что каша это не крупа + кастрюля, ага? Она из них рождается. Куча вариантов. Но с человеком наиболее яркий, мне кажется.

SH>>Важно, что это процесс _происхождения_ информации (один из возможных процессов, мы не доказывали, что других нет, хотя можем взять за аксиому). Это не _информация_ как она есть.


V>Это больше похоже на процесс вычисления нового материального объекта — организма из двух половинок материального мультиквайна.


Это ты про зачатие или про информацию?

В любом случае, ты как-нибудь отметь тот факт, что ты со мной согласился, или что наоборот. А то ты уже два раза ушёл в какие-то частности, я так и не понял результат.

V>В голове наверняка происходит то же самое.


Аргументы?

V>Но делают это очень криво, мутно (не исключено, что слово "mystic" и слово "mist" (туман) изначально были однокоренными) и не конструктивно. Кстати, они неявно подразумевают возможность существования "универсального контекста", невозможность которого довольно легко доказывается.


Интересно.
— что ты понимаешь под "универсальным контекстом".
— почему он неявно предполагается
— и почему его не может быть?
Делай что должно, и будь что будет
Re[6]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.12.09 13:49
Оценка:
Здравствуйте, SergH, Вы писали:

V>>Это больше похоже на процесс вычисления нового материального объекта — организма из двух половинок материального мультиквайна.

SH>Это ты про зачатие или про информацию?

Понятно, что конструкция курицы каким-то образом должна быть закодирована в яйце. А конструкция яйца — в курице. И ещё где-то рядом болтается петух чисто для того, чтобы ещё больше усложнить процесс и этим окончательно свести исследователей с ума.

SH>В любом случае, ты как-нибудь отметь тот факт, что ты со мной согласился, или что наоборот. А то ты уже два раза ушёл в какие-то частности, я так и не понял результат.


Согласен-согласен. Всё хорошо.

V>>В голове наверняка происходит то же самое.

SH>Аргументы?

Не вижу причин, чтобы там происходило что-то принципиально другое. Но, конечно, это гипотеза. Вдруг найдут каких-нибудь демонов и тем самым опровергнут гипотезу необходимости материальной основы информационных процессов?

SH>Интересно.

SH>- что ты понимаешь под "универсальным контекстом".
Контекст, являющийся объединением "все в одном" всех остальных контекстов. Т.е. если есть контексты Кn, в которых некий сигнал S превращается в информации In, то универсальный контекст при получения сигнала S превращает его во все информации In.
Это по отношению к конкретному сигналу S. Для достижения истинной универсальности наделяем наш универсальный контекст способностью интерпретировать любой сигнал из всех, которые когда-либо были, есть и будут во веки веков аминь.

SH>- почему он неявно предполагается

Всеведающий Бог.

SH>- и почему его не может быть?

Потому что ничто не запрещает информации I1 противоречить информации I2. Если наш универсальный контекст является механическим объединением противоречивых контекстов, то и горя нет. I1 и I2 растут каждый на своём поле и друг другу не мешают. Но когда мы их сталкиваем лбами внутри одного контекста, то Боливар не вынесет двоих.

Я не знаю, как теологи выкручиваются из этой беды. Как-то, наверно, выкручиваются. Но почему-то уверен, что их способ рассуждения не покажется мне убедительным.
Re[7]: Статья: Как найти "информацию"
От: SergH Россия  
Дата: 22.12.09 14:00
Оценка: 1 (1)
Здравствуйте, Voblin, Вы писали:

V>Согласен-согласен. Всё хорошо.


Ну и славно.

V>Не вижу причин, чтобы там происходило что-то принципиально другое. Но, конечно, это гипотеза. Вдруг найдут каких-нибудь демонов и тем самым опровергнут гипотезу необходимости материальной основы информационных процессов?


Ты экстраполируешь данные о процессах обработки сигналов на информационные.

Без контекста нет информационного процесса. Говорить, что компьютер имеет контекст мне кажется, несколько смело. Он контекста не имеет. Я ему явно так или иначе указываю, как воспринимать ту или иную строчку бит. Устанавливая на него ПО и прописывая зависимости, например. Или у тебя другое мнение?

SH>>- почему он неявно предполагается

V>Всеведающий Бог.

ээ, он типа за тобой смотрит, да? И всё-всё знает и наказывает?
почему ты думаешь, что теологи что-то такое считают?
Делай что должно, и будь что будет
Re[8]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.12.09 14:56
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Ты экстраполируешь данные о процессах обработки сигналов на информационные.


Я специально написал это в "Утверждении 10". И спрашивать надо не почему я считаю, что это так, а для чего я считаю, что это так. Впрочем, можно и не спрашивать. Там довольно подробно описано, для чего.

SH>Без контекста нет информационного процесса. Говорить, что компьютер имеет контекст мне кажется, несколько смело. Он контекста не имеет.


Как это не имеет? Заголовок IP-пакета очень ловко интерпретируется в контексте сетевого уровня OSI, TCP-заголовок хорошо обрабатывается в транспортном уровне. Тег "[Ь]" замечательно выделяет текст жирным шрифтом потому что он имеет именно такой смысл в контексте обработчика сообщений, посылаемых на форум RSDN. Что ещё надо? Чего не хватает?

SH>Я ему явно так или иначе указываю, как воспринимать ту или иную строчку бит. Устанавливая на него ПО и прописывая зависимости, например. Или у тебя другое мнение?


А также в этом процессе участвуют Intel, Microsoft, IEEE, W3C и ещё длинный-предлинный список товарищей.
Кстати, ты уверен, что всё, что ты думаешь, делаешь и чувствуешь не имеет своими источниками всякое разное надличностное (или, как частный случай, всякое глубоко-глубоко внутриличностное)?

V>>Всеведающий Бог.

SH>ээ, он типа за тобой смотрит, да? И всё-всё знает и наказывает?
SH>почему ты думаешь, что теологи что-то такое считают?

Кто их поймёт, этих теологов? Я уже давно даже и не пытаюсь...
Re[9]: Статья: Как найти "информацию"
От: SergH Россия  
Дата: 22.12.09 16:42
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Как это не имеет? Заголовок IP-пакета очень ловко интерпретируется в контексте сетевого уровня OSI, TCP-заголовок хорошо обрабатывается в транспортном уровне. Тег "[Ь]" замечательно выделяет текст жирным шрифтом потому что он имеет именно такой смысл в контексте обработчика сообщений, посылаемых на форум RSDN. Что ещё надо? Чего не хватает?


А есть какое-то отличие людей от компьютеров? По твоему?
Делай что должно, и будь что будет
Re[10]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.12.09 17:34
Оценка:
Здравствуйте, SergH, Вы писали:

SH>А есть какое-то отличие людей от компьютеров? По твоему?


Да полно! А что?
Re[3]: Статья: Как найти "информацию"
От: Шахтер Интернет  
Дата: 22.12.09 17:58
Оценка: 1 (1)
Здравствуйте, Voblin, Вы писали:

V>>>Утверждение №6: Инфорода не существует

Ш>>- Антиэнтропия. У Пенроуза очень хорошо это обясняется, не буду повторятся.

V>Пенроуз — хороший математик. И хороший популяризатор науки. Про всё остальное скромно промолчу.

V>От себя лишь могу сказать, что при проектировании информационных систем я ни разу в конструкцию изделия не закладывал никаких нематериальных емкостей для накопления инфорода и нематриальных каналов для его передачи. Всё почему-то в результате получается грубо и механистично. Электрические сигналы, магнитные домены, накопление электрических зарядов и т.п. вещи. Что я делаю не так?

Всё это не будет работать без внешнего источника антиэнтропии. Например, Солнца. Ну и.т.д до большого взрыва включительно. Просто ты включая компьютер в розетку об этом не привык задумываться.

V>>>Утверждение №8: Вычисление не увеличивает количество информации

Ш>>Вначале следует сказать, что такое количество информации.

V>Это было лирическое отступление на тему того, что в сладкой парочке "алгоритм + исходные данные" уже содержится результат вычисления.


Только в идеальном смысле. В реальности чтобы этот результат извлечь нужно затратить энергию, иногда непомерно большую.

V>А также мне было важно донести до общественности, что не всякая обработка информации является вычислением (привет Пенроузу).


А этого мы не знаем. Может и всякая. Но мне представляется, что этот момент как раз непринципиален.

V>>>Утверждение №9: Информация не меряется в битах

Ш>>А в чем? И как? Это вопрос дефиниций и соглашений.

V>А ни в чём и никак. И это важно.


Ну почему же. Есть вполне объективные способы измерить если не информацию, то сообщение. Кстати говоря, не нужно было изобретать слово сигнал. Есть вполне канонический термин -- сообщение.
В XXI век с CCore.
Копай Нео, копай -- летать научишься. © Matrix. Парадоксы
Re[11]: Статья: Как найти "информацию"
От: SergH Россия  
Дата: 22.12.09 18:14
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Да полно! А что?


Сомнения возникли. В твоей благонадёжности

А в плане разума? Разум -- осмысленное понятие?

Тут просто смотри какая штука. Тут не понятно где остановиться. Преобразование битовых строк в компьютере ты называешь преобразованием информации. А умение отличать одни строки от других (в основном командой switch) -- контекстом.

А замок, который ключи распознаёт и дверь открывает -- он тоже информацию преобразует? Контекст задаётся положением внутренних деталек, правильные ключи преобразуются в "да", неправильные в "нет". Такой вот информационный прибор.

А будильник? Он не просто стрелку сдвигает, он ещё и звенит когда нужно. Вообще, кстати, без внешних сигналов.

О, ещё про контекст. Помнишь анекдот про термос? Который "а откуда же он знает"? Тождественное преобразование -- это же тоже информационное преобразование. Или "тождественный нуль". Почему нет? Устроить тождественный нуль винчестеру можно молотком. А с простым тождественным информационным преобразованием справляется как винчестер так и бумага. И те самые папирусы.

Далее, ты там говорил, что при алгоритмических вычисления количество информации не меняется. Компьютер занимается именно ими, значит количество информации он не меняет. Так может ему не нужен контекст для этого? Или он всё же меняет информацию? А что в ней тогда меняется?
Делай что должно, и будь что будет
Re[3]: Статья: Как найти "информацию"
От: sereginseregin Россия http://daremanager.sourceforge.net/ru/
Дата: 23.12.09 06:05
Оценка: :)
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, sereginseregin, Вы писали:


S>>Бессмысленно исследовать что-то только по тому что оно существует. К каким выводам вы придёте? Какую цель достигните?


V>Но если стойкое дремучее непонимание чего-то весьма ощутимо мешает, то это "что-то" есть смысл попытаться исследовать.


S>>Я бы рассматривал Информацию в контексте процесса управления. Влияет Сигнал на поведение Объекта — это Информация, не влияет — это просто неосмысленные Объектом Данные.


V>Объекты, поведение и процесс управления — тоже интересные темы. Но не надо даже пытаться их глубоко копать, не разобравшись с "информацией".


Я имел в виду, что в Вашей теории нет цели. Теория без цели (области применения) не только бесполезна (не интересна) окружающим (разве что, кроме всезнаек эрудитов...), но и рискует в любой момент стать нелогичной, бессмысленной.

Возможно цель Вы поставили, но для себя, подсознательно. Сформулируйте в теории, где Вам не дает покоя "Дремучее непонимание" сущности Информации, и сразу станет понятно, логична ваша теория, или нет.
Re[4]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.12.09 08:40
Оценка: -1
Здравствуйте, Шахтер, Вы писали:

V>>...Что я делаю не так?

Ш>Всё это не будет работать без внешнего источника антиэнтропии. Например, Солнца. Ну и.т.д до большого взрыва включительно. Просто ты включая компьютер в розетку об этом не привык задумываться.

Не надо антиэнтропии. Из розетки в мой комп поступает электрическая энергия, а не электрическая антиэнтропия.

V>>Это было лирическое отступление на тему того, что в сладкой парочке "алгоритм + исходные данные" уже содержится результат вычисления.

Ш>Только в идеальном смысле. В реальности чтобы этот результат извлечь нужно затратить энергию, иногда непомерно большую.

А также время, деньги и прочее. Но доп. информации уже не нужно.

V>>А также мне было важно донести до общественности, что не всякая обработка информации является вычислением (привет Пенроузу).

Ш>А этого мы не знаем. Может и всякая. Но мне представляется, что этот момент как раз непринципиален.

Очень принципиален. Речь идет о нащупывании границы применимости принципа Тьюринга. Того самого, который многими горячими головами считается универсальным и вселенским.

Ш>Ну почему же. Есть вполне объективные способы измерить если не информацию, то сообщение.


Ага. Можно ещё мерить книги в килограммах.

Ш>Кстати говоря, не нужно было изобретать слово сигнал. Есть вполне канонический термин -- сообщение.


Была такая мысль. Но внутри слова "сообщение" содержится слово "общение", что сразу утаскивает ассоциативные цепочки к тому частному случаю, когда:
1. У сигнала есть субъект-отправитель.
2. Субъект-отправитель и субъект-получатель — разные субъекты.
Нам нужны такие ассоциации? Мне — нет.
Re: Статья: Как найти "информацию"
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 23.12.09 10:57
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, уважаемые,


V>Некоторое время назад мы здесь много и весьма интересно рассуждали о природе информации.

V>В качестве "продолжения банкета" предлагаю вам свою статью Как найти "информацию".

В целом хорошая статья. Только какая-то недоделанная. Пункты 9 и 10 необоснованны и противоречат друг другу (либо используют странные определения). Основные выводы и так давно известны мыслящим. А главного ответа так и нет: если информация рождается из сигнала и контекста, а контекст — это информация, то информация рождается из информации и сигнала (рекурсивное определение? нехорошо), а что же это такое — так и не ясно.
Местами просто лирика и нелогичные пассажи. "Итак, информация нематериальна. То есть она субъективна." — откуда это "то есть"? Второе никак не следует из первого, хотя и вполне похоже на правду само по себе. Можно и дальше придраться, но не вижу смысла.
Re[4]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.12.09 12:27
Оценка: 6 (1)
Здравствуйте, sereginseregin, Вы писали:

S>Я имел в виду, что в Вашей теории нет цели. Теория без цели (области применения) не только бесполезна (не интересна) окружающим (разве что, кроме всезнаек эрудитов...), но и рискует в любой момент стать нелогичной, бессмысленной.

S>Возможно цель Вы поставили, но для себя, подсознательно. Сформулируйте в теории, где Вам не дает покоя "Дремучее непонимание" сущности Информации, и сразу станет понятно, логична ваша теория, или нет.

Цель есть и вполне сознательная. В статье я себе позволил на неё только намекнуть. Суть же вот в чём.

Под каждую науку, какую ни возьми, подложен философский фундамент. Некоторые думают, что наука — это просто набор фактов, подтверждаемых опытным путём.
Ну, во-первых, это совсем не так. То, что студент не докопался до первооснов, а просто зазубривает определения и формулы, ещё не значит, что эта наука только из этого и состоит.
Во-вторых, только философия даёт каждой науке право на существование. Т.е. путём, казалось бы, немыслимого словоблудия доказывается, что некоторая область знаний может считаться наукой и ею можно руководствоваться при принятии ответственных решений.
Поскреби физику, и найдёшь в её основе учение Платона о мире идей. Не зря ведь сам термин "физика" впервые появился именно у Аристотеля, который, как известно, был учеником Платона.
Поскреби психологию, и найдёшь Декарта с его "Мыслю, следовательно существую".
Поскреби экономику, найдёшь философские рассуждения о свободе и необходимости.
В основе математики — философское понятие "справедливость" (суть математического вывода заключается в том, что если мы считаем справедливыми высказывания A, B и C, то, применив считающиеся справедливыми рассуждения D и E, мы приходим к выводу о том, что высказывание F тоже справедливо). Справедливость — одна из самых основных основ человеческого общежития, и именно поэтому математика так полезна и уважаема.
В основе астрологии... нет никакой философии. Есть миф о том, что всё в этом мире взаимосвязано, и в случайных совпадениях нужно искать сокровенный смысл. При этом, конечно же, никто не заморачивется вопросами о том, что такое "всё", что такое "мир", и что значит "быть взаимосвязанным".

Чем философский фундамент прочнее, тем наука оказывается более успешной. Т.е. более полезной. Надёжной.

А теперь (..барабанная дробь...) давайте посмотрим, что за философия лежит в основе информатики и его практических воплощений — информационных технологий. Ага, понятия "система", "управление". Копаем глубже. Что там? Пустота. Нет ничего.
Ребята, то чем мы занимаемся — шаманство и шарлатанство. Зарабатываем себе на жизнь хиромантией. У нас есть сборник шаманских рецептов, которые чаще всего работают. А когда не работают (например, систему разработали по всем правилам, сдали и выкинули), то мы либо ищем и пытаемся применять другие шаманские рецепты, либо тупо недоумеваем и жалуемся на жизнь, на тупых юзеров, на мерзкий Микрософт.
Когда мы говорим, что "система позволит автоматизировать наиболее трудоёмкие операции...", в наших словах не больше смысла, чем в рассуждениях о противостоянии Луны и Марса. И смысла нет не потому, что мы плохо овладели предметом, а потому, что весь наш предмет лишён прочной основы, которая, между прочим, и определяет смысл.
ОК. Ладно. Системы и управление. Надо под них подводить основу. Пытаемся в качестве основы использовать математику. Получается некрасиво, не универсально, и... не помогает. Почему не помогает? Известно почему. Математика не может быть основой просто в силу того, что она сама является наукой, производной от философии. А лежащая в основе математики философия для информатики не подходит. Никак. Ну нельзя строить компилятор на основе идеи справедливости.
Для того, чтобы обосновать "систему" и "управление", нужно найти или придумать подходящий раздел философии. Возможно, этим разделом должна стать философия информации. Но сейчас, хотите верьте, хотите нет, у этого раздела есть только название. Внутреннего содержания нет. Понятно, что там должно что-то быть, но пока ничего нет. И не появится, пока мы будем держаться зубами за предрассудки и стереотипы, не выдержавшие проверку временем.

Теперь, как обещал, о цели. Цель — обговнякать старые стереотипы и сдвинуть дело с мёртвой точки.

P.S. То, что информационные технологии породили массу замечательных и полезных вещей — не показатель. Например, мифы Древней Греции породили гигантское количество любимых нами произведений различных искусств. Даже уже после того, как в них перестали верить.
Re: Статья: Как найти "информацию"
От: Tilir Россия http://tilir.livejournal.com
Дата: 23.12.09 13:56
Оценка:
Здравствуйте, Voblin, Вы писали:

"Информация не существует без физического носителя" -- странное утверждение. Известно например, что весь текст этой ветки, вместе с исходниками Windows и планами Пентангона, а также любую другую последовательность бит, можно найти в числе пи, представленном в двоичной записи. Таким образом, можно сказать что вся информация о Вселенной сосредоточена в одном-единственном (любом на самом деле) регулярном числе. Которое, будучи математической абстракцией, не нуждается в физическом носителе.

Возможно пункт следует переформулировать так: извлечение информации невозможно, если она не представлена физическим носителем.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.12.09 14:23
Оценка: +1 -1
Здравствуйте, Tilir, Вы писали:

T>"Информация не существует без физического носителя" -- странное утверждение. Известно например, что весь текст этой ветки, вместе с исходниками Windows и планами Пентангона, а также любую другую последовательность бит, можно найти в числе пи...


Мне не нужны исходники Windows. И планы Пентагона тоже не нужны. Мне нужен всего лишь курс доллара на следующий понедельник. Он ведь уже содержится в числе пи, правда ведь? Извлеките его для меня, пожалуйста. Чесслово, очень надо.
Или хотя бы расскажите, как я могу сделать это сам. Плииииз...
Re[2]: Статья: Как найти "информацию"
От: nikov США http://www.linkedin.com/in/nikov
Дата: 23.12.09 14:32
Оценка:
Здравствуйте, Tilir, Вы писали:

T>"Информация не существует без физического носителя" -- странное утверждение. Известно например, что весь текст этой ветки, вместе с исходниками Windows и планами Пентангона, а также любую другую последовательность бит, можно найти в числе пи, представленном в двоичной записи.


Это только правдоподобная гипотеза, пока что недоказанная.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.12.09 15:33
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>В целом хорошая статья. Только какая-то недоделанная. Пункты 9 и 10 необоснованны и противоречат друг другу (либо используют странные определения).


Что-то я, похоже, туплю. В чём противоречие?

DM>Основные выводы и так давно известны мыслящим.


Неужели я так быстро достиг стадии "это всем давно известно"?

DM>А главного ответа так и нет: если информация рождается из сигнала и контекста, а контекст — это информация, то информация рождается из информации и сигнала (рекурсивное определение? нехорошо), а что же это такое — так и не ясно.


Во-первых, это не определение. Рекурсивные определения — это действительно не хорошо, хотя они иногда и применяются. Например, для определения слова "рекурсия".
Но вообще в рекурсии ничего страшного нет. Рекурсивность проблемы "курица vs. яйцо" не мешает этих самых кур разводить, жарить и есть. Можно, конечно, заняться поисками самого-самого древнего зёрнышка, из которого всё выросло. Может быть, стоит оставить эту проблему органическим химикам и эволюционным биологам? Ведь нам, инфотехнологам, в общем и целом всё равно, откуда всё взялось изначально. Мы ведь пришли "на всё готовенькое" — в мир, в котором феномен информации уже есть.

DM>Местами просто лирика и нелогичные пассажи. "Итак, информация нематериальна. То есть она субъективна." — откуда это "то есть"? Второе никак не следует из первого, хотя и вполне похоже на правду само по себе. Можно и дальше придраться, но не вижу смысла.


Упс... Действительно, между словами "нематериальный" и "субъективный" нельзя поставить жирного знака равенства. Но карандашиком знак равенства нарисовать можно.
Материальный — значит существующий объективно, вне зависимости от нашего настроения. Значит нематериальный — это либо не существующий, либо существующий не объективно (т.е. в зависимости от нашего настроения, т.е. субъективно).
Такое рассуждение на первых порах сгодится?
Re: Статья: Как найти "информацию"
От: mefrill Россия  
Дата: 24.12.09 06:58
Оценка: 26 (3) +2 -2
Здравствуйте, Voblin, Вы писали:

V>Чтобы порка была произведена профессионально


Не так уж и профессионально, но кое-какой связанной тематикой я занимаюсь, поэтому могу что-то подсказать .

Что сразу бросается в глаза -- это отсутствие исследования относительно этимологии термина. Понятие "информация" у тебя возникает из небытия как чорт из табакерки, само по себе. Между тем, так никогда не бывает, понятия есть результат договоренности между людьми, они возниакают не сами о себе, а в связи с какой-то целью, какой-то конкретной задачей. Изменяется задача -- меняется понятие, появляются новые. Процесс изменения (эволюции) понятий сам по себе очень интересен и его изучение позволяет понять, как меняется представление человечества о Мире. Вообще, даже есть теория, что понятия подобны живым существам и эволюционируют в умах людей точно также, как живые существа эволюционируют в Природе. У понятий есть "гены" (простейшие информационные составляющие) и эти гены передаются наследникам. Попиарю эту теорию: Terrence Deacon. Memmes as signs in the dynamic logic of semiosis.

Если говорить конкретно о понятии "информация", то прежде всего надо выяснить цели и задачи, которые привели к появлению этого понятия. Ведь, насколько я понимаю (я этот вопрос не изучал), термин "информация" появился уже в компьютерную эру, ранее этого термина не было. Значит, понятие "информация" связано с компьютерами и, скорее всего, с проблемой хранения информации на некотором носителе. В этом контексте, понятия "информаци" и "носитель" интегральны, они друг без друга не употребляются. Вероятно, основная проблема состояла в том, чтобы обеспечить хранение информации в наиболее копактном виде, т.е. на наименьшем носителе. Чтобы абстрагироваться от природы того, ЧТО хранится и придумали термин "информация". Насколько я понимаю, в различных криптографических науках, в сжатии данных, термин "инфомация" широко применяется именно в этом контексте.

Вот здесь и возникает тема второго исследования: необходимо понять различные контексты применения термина. Посмотреть, ЧТО люди имеют ввиду, когда применяют этот термин в той или иной области. Перечислить эти значения и, затем, попытаться понять, как случилось, что один и тот же термин стал применяться в различных контекстах, что между этими контекстами схожего, а что различного. Если в этом разберешься, то многие вопросы, которые ты поставил в статье, отпадут сами собой.

Когда с исследованием будет покончено, можно перейти к выводам. Но выводы и свои рассуждения надо делать только ПОСЛЕ того, как ты проведешь обзорное исследование. Пока все рассуждения выглядят наивно-провинциально.

Например, рассуждения о существовании или несуществовании информации вообще некорретктно. Можно ли сказать, существует или нет масса? Или сущещствует или нет знание? К таким понятиям подобные вопросы неприменимы. Надо почитать о понятиях, о том чем они разняться, каких видов бывают. Тогда станет понятно, почему к одним понятиям можно задавать подобные вопросы, а к другим -- нет.

В общем, совет один -- собственные рассуждения надо проводить только после систематического исследования вопроса. Тогда, это не будет выглядеть так наивно и, самое главное, после такого исследования возрастет собственное понимание этого и близких вопросов.

Удачи,
ВЛ.
Re[3]: Статья: Как найти "информацию"
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 24.12.09 11:01
Оценка: +1
Здравствуйте, Voblin, Вы писали:

DM>>В целом хорошая статья. Только какая-то недоделанная. Пункты 9 и 10 необоснованны и противоречат друг другу (либо используют странные определения).


V>Что-то я, похоже, туплю. В чём противоречие?


Думаю, вопрос терминологический. Для меня данные — это именно последовательность битов/байтов/чисел/знаков и т.д. Как в словах "база данных", "хранилище данных" и пр. Их объем вполне себе измеряется в битах, и данные при этом не тождественны информации.

DM>>Основные выводы и так давно известны мыслящим.


V>Неужели я так быстро достиг стадии "это всем давно известно"?


Ну, в книжках по теории информации очень близкие вещи написаны. Ничего особо нового в статье не видно.

DM>>А главного ответа так и нет: если информация рождается из сигнала и контекста, а контекст — это информация, то информация рождается из информации и сигнала (рекурсивное определение? нехорошо), а что же это такое — так и не ясно.


V>Во-первых, это не определение. Рекурсивные определения — это действительно не хорошо, хотя они иногда и применяются. Например, для определения слова "рекурсия".

V>Но вообще в рекурсии ничего страшного нет. Рекурсивность проблемы "курица vs. яйцо" не мешает этих самых кур разводить, жарить и есть. Можно, конечно, заняться поисками самого-самого древнего зёрнышка, из которого всё выросло. Может быть, стоит оставить эту проблему органическим химикам и эволюционным биологам? Ведь нам, инфотехнологам, в общем и целом всё равно, откуда всё взялось изначально. Мы ведь пришли "на всё готовенькое" — в мир, в котором феномен информации уже есть.

Курица, яйца, особенно с майонезом, — это конечно хорошо, но было бы здорово увидеть какое-то определение информации. Без него статья незаконченная.

V>Упс... Действительно, между словами "нематериальный" и "субъективный" нельзя поставить жирного знака равенства. Но карандашиком знак равенства нарисовать можно.

V>Материальный — значит существующий объективно, вне зависимости от нашего настроения. Значит нематериальный — это либо не существующий, либо существующий не объективно (т.е. в зависимости от нашего настроения, т.е. субъективно).
V>Такое рассуждение на первых порах сгодится?

Только на самых первых — пока не задаются вопросы "материален/существует ли объективно субъект (и его содержимое)" и "существует ли объективность вне оценивающих ее субъектов".

Возвращаясь к исходной теме, посоветую не зацикливаться на понятии информации только в области информационных технологий, а взглянуть на вопрос пошире, например, в сторону физики, статистики и квантовой механики. Там понятие информации напрямую связано с понятием энтропии, и понимание того, что такое именно энтропия может дать хорошие ответы на вопросы об информации. Ведь энтропия квантовой системы и энтропия источника данных недаром имеют практически идентичные формулы — у них практически идентичный смысл. И при проведении измерений в физике мы извлекаем информацию, причем ее можно по тем же формулам оценить в битах. Очень советую подумать в эту сторону.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 24.12.09 11:04
Оценка: 2 (1) +1 :))
Здравствуйте, mefrill, Вы писали:

M>Что сразу бросается в глаза -- это отсутствие исследования относительно этимологии термина...

M>Если говорить конкретно о понятии "информация", то прежде всего надо выяснить цели и задачи, которые привели к появлению этого понятия...
M>Вот здесь и возникает тема второго исследования: необходимо понять различные контексты применения термина...
M>... Но выводы и свои рассуждения надо делать только ПОСЛЕ того, как ты проведешь обзорное исследование. Пока все рассуждения выглядят наивно-провинциально.

Есть два способа пойти на охоту:
1. Схватить первое попавшееся ружьё и побежать настрелять уток пока не улетели. Зажарить. Съесть.
2. Изучить толстые книги типа "Всё об утках", "Секреты эффективной охоты в средней полосе России (в трёх томах)", "История охоты", "Как оптимально подобрать охотничье ружьё" и т.п. Потом надо скопить приличную сумму денег и заказать (обязательно!) из-за границы самое лучшее ружьё. И одежду. И прочую экипировку. Созвать компанию. Организовать выезд по всем правилам — на зорьке, с пикничком, с водочкой, с барышнями в шляпках. Поразить всех глубиной познаний об охоте и об утках. По ходу дела устроить личную жизнь. Уток не найти. Вернуться довольным.

Каждый из этих способов по-своему хорош.
Если бы я писал докторскую диссертацию, я бы, конечно, озаботился и этимологией, и историей вопроса, и контекстами употребления термина. Но я не пишу докторскую. У меня и кандидатской нет. И даже в планах.
А исторический экскурс в данном конкретном случае только бы повредил. Редкая птица долетела бы до середины двухсотстраничного опуса, вся соль которого — в последних десяти страницах.
Из всей же истории вопроса мне был интересен только один факт: в настоящее время все окончательно запутались, и как выпутываться — никто не знает. Этот один исторический факт заменяет собой все остальные исторические факты. Если же кому интересно изучать эти многочисленные "unsuccess story" — пожалуйста, милости просим. Флаг в руки. Морально поддержу и потом с благодарностью почитаю результат изысканий.

M>Если в этом разберешься, то многие вопросы, которые ты поставил в статье, отпадут сами собой.

Не отпадут. Потому что в статье я вопреки всем правилам научного хорошего тона никаких вопросов не поставил. Я поставил ответ. И показал, что этот ответ расчищает завал, препятствующий дальнейшему движению.

M>Попиарю эту теорию: Terrence Deacon. Memmes as signs in the dynamic logic of semiosis.

Можно ещё Докинза почитать. Ведь именно этот человек придумал слово "мем".
Re[4]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 24.12.09 15:15
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>Ну, в книжках по теории информации очень близкие вещи написаны. Ничего особо нового в статье не видно.

Утверждение о том, что ни в книгах, ни в фильмах, ни в звуках не содержится никакой информации — это есть в теории информации?
То, что вот это моё высказывание само по себе не может быть ни истинным, ни ложным — это банальность?
Я думаю, что это не банальность, а довольно жёсткая провокация. И я до сих пор удивляюсь, почему меня за неё не начали бить.

DM>... но было бы здорово увидеть какое-то определение информации. Без него статья незаконченная.

Как ни странно это звучит, но в этой статье определение информации и не могло появиться. Для того, чтобы его дать, не хватает понимания, зачем она есть, эта самая информация. Возможно, не хватает чего-то ещё, но этого не хватает точно. Давать паллиативное определение мне не захотелось.

Ответить на вопрос "зачем?" парой абзацев невозможно. Нужно развести примерно такую же по длине хреномуть на тему "системы" и "управление". Какие-то мысли по этому вопросу в воспалённом мозгу бродят, но систематизировать и выкладывать их на бумагу я ещё не начал.
Так что звиняйте.

DM>Только на самых первых — пока не задаются вопросы "материален/существует ли объективно субъект (и его содержимое)" и "существует ли объективность вне оценивающих ее субъектов".


Хоть где-то, хоть когда-то субъект объективно существует. "Мыслю, следовательно существую"
Существует ли объективно содержание? ХЗ. Что такое содержание?
Существует ли объективность вне оценивающих ее субъектов? Об этом вроде бы договорились. Да, существует. Этот вопрос можно уже даже и не обсуждать.

DM>Возвращаясь к исходной теме, посоветую не зацикливаться на понятии информации только в области информационных технологий, а взглянуть на вопрос пошире, например, в сторону физики, статистики и квантовой механики.

Не очень понятно, что нужно смотреть в статистике. Пресловутые распределения плотностей вероятностей? И что мы там можем найти?
В физику вообще и в квантовую механику в частности вообще нет смысла смотреть. Я не зря написал "Утверждение №5". Которое про то, что информация инвариантна физическому представлению, а информационный процесс инвариантен его физической реализации. При этом, конечно, пришлось неправильно применить термин "инвариантность". На самом деле это нужно было назвать монопенисуальностью.
В любом случае смысл утверждения номер пять в том, что в рассуждениях об информации нам могут помогать любые науки кроме одной-единственной. Кроме физики. И биология может быть полезна, и история, и социология, и искусствоведение, и математика, и филология, и некоторые разделы химии. А физика, одна единственная из всех наук, получает стоп-сигнал. Потому что информация монопенисуальна физическому представлению. Это можно даже с пользой для дела использовать как некий такой импровизированный критерий: как только в рассуждениях об информации появляется физика, значит мы пошли неправильным путём, и нужно срочно разворачивать оглобли.
Поймите меня правильно. Я физику с детства люблю нежно. Но это как раз такой случай, когда нужно попросить любимую поработать огородным пугалом.

DM>И при проведении измерений в физике мы извлекаем информацию, причем ее можно по тем же формулам оценить в битах. Очень советую подумать в эту сторону.

И при наблюдении за поведением животных мы тоже извлекаем информацию. И тоже можно оценить в битах. И когда следим за колебаниями доу-джонса — тоже. И когда чешется пятка — это для нас тоже информация. И тоже можно в битах.
В чём именно заключается та фишка, которая заставляет связывать всю эту хрень с энтропией, т.е., по сути, с энергией? То, что в основе всех явлений хоть как-то, но лежит энергия? Да полноте. Этак мы через рассуждение о том, что всё происходит в пространстве, придём к необходимости мифических информационных полей, что уже вообще является мракобесием.
Re[5]: Статья: Как найти "информацию"
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 24.12.09 18:18
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Утверждение о том, что ни в книгах, ни в фильмах, ни в звуках не содержится никакой информации — это есть в теории информации?


Кто Шеннона читал, для того это не новость. Например, сообщение "Земля не плоская" содержит для меня ровно 0 бит информации, хоть и закодировано несколькими байтами. Потому что количество переданной информации по Шеннону зависит от распределения вероятностей вариантов, т.е. имеющегося у приемника знания. Если он уже все знает по этому вопросу, распределение вырождается и количество информации равно нулю. Это распределение можно считать тем контекстом, о котором говорится в статье.

V>То, что вот это моё высказывание само по себе не может быть ни истинным, ни ложным — это банальность?


Высказывания о том, чему не дано определения, вообще трудно оценивать на истинность.

DM>>Возвращаясь к исходной теме, посоветую не зацикливаться на понятии информации только в области информационных технологий, а взглянуть на вопрос пошире, например, в сторону физики, статистики и квантовой механики.


V>Не очень понятно, что нужно смотреть в статистике. Пресловутые распределения плотностей вероятностей? И что мы там можем найти?


Понимание.

V>В физику вообще и в квантовую механику в частности вообще нет смысла смотреть. Я не зря написал "Утверждение №5". Которое про то, что информация инвариантна физическому представлению, а информационный процесс инвариантен его физической реализации. При этом, конечно, пришлось неправильно применить термин "инвариантность". На самом деле это нужно было назвать монопенисуальностью.


Не-не-не, я совсем про другое. Не про физическое воплощение информационных процессов, они действительно ему монопенисуальны. Я про информационное содержание физических измерений и понятия энтропии. И энтропия связана отнюдь не с энергией, энергия там вообще не при чем по большому счету. Еще раз прошу помедитировать над формулой квантовой энтропии.
Re[5]: Статья: Как найти "информацию"
От: Шахтер Интернет  
Дата: 24.12.09 20:16
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, Шахтер, Вы писали:


V>>>...Что я делаю не так?

Ш>>Всё это не будет работать без внешнего источника антиэнтропии. Например, Солнца. Ну и.т.д до большого взрыва включительно. Просто ты включая компьютер в розетку об этом не привык задумываться.

V>Не надо антиэнтропии. Из розетки в мой комп поступает электрическая энергия, а не электрическая антиэнтропия.


Которая целиком в виде тепла отдаётся в окружающую среду.
Компьютер не потребляет энергию. Энергию вообще потребить невозможно -- закон сохранения энергии мешает.

V>>>Это было лирическое отступление на тему того, что в сладкой парочке "алгоритм + исходные данные" уже содержится результат вычисления.

Ш>>Только в идеальном смысле. В реальности чтобы этот результат извлечь нужно затратить энергию, иногда непомерно большую.

V>А также время, деньги и прочее. Но доп. информации уже не нужно.


V>>>А также мне было важно донести до общественности, что не всякая обработка информации является вычислением (привет Пенроузу).

Ш>>А этого мы не знаем. Может и всякая. Но мне представляется, что этот момент как раз непринципиален.

V>Очень принципиален. Речь идет о нащупывании границы применимости принципа Тьюринга. Того самого, который многими горячими головами считается универсальным и вселенским.


принципа Тьюринга -- это ты о чем?

Ш>>Ну почему же. Есть вполне объективные способы измерить если не информацию, то сообщение.


V>Ага. Можно ещё мерить книги в килограммах.


Неуместная ирония.

Ш>>Кстати говоря, не нужно было изобретать слово сигнал. Есть вполне канонический термин -- сообщение.


V>Была такая мысль. Но внутри слова "сообщение" содержится слово "общение", что сразу утаскивает ассоциативные цепочки к тому частному случаю, когда:

V>1. У сигнала есть субъект-отправитель.
V>2. Субъект-отправитель и субъект-получатель — разные субъекты.
V>Нам нужны такие ассоциации? Мне — нет.

У сигнала всегда есть субьект-отправитель и субьект-получатель. Они обычно разные.
В XXI век с CCore.
Копай Нео, копай -- летать научишься. © Matrix. Парадоксы
Re[4]: Статья: Как найти "информацию"
От: Silver_s Ниоткуда  
Дата: 24.12.09 21:17
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM> посоветую не зацикливаться на понятии информации только в области информационных технологий, а взглянуть на вопрос пошире, например, в сторону физики, статистики и квантовой механики. Там понятие информации напрямую связано с понятием энтропии, и понимание того, что такое именно энтропия может дать хорошие ответы на вопросы об информации. Ведь энтропия квантовой системы и энтропия источника данных недаром имеют практически идентичные формулы — у них практически идентичный смысл. И при проведении измерений в физике мы извлекаем информацию, причем ее можно по тем же формулам оценить в битах. Очень советую подумать в эту сторону.


Когда по сетевому кабелю в сетевую карточку попадает сетевой пакет, что интересного происходит с энтропией компьютера? И сравнить со случаем когда на входе карточки случайный шум. По какой формуле расчеты проводить?
Энтропия это не менее размазанное понятие, чем информация (хотя в той области где оно появилось оно вполне конкретное). Попадаются даже случаи злоупотребления термином "энтропия". Например, в одной книжеце, даже говорится что якобы человек энтропию окружающей среды увеличивает своей деятельностью ... чтобы экологию не испортить, энтропию надо отводить в околоземное пространство. Интересно как? Складывать энтропию в контейнеры потом вывозить и сбрасывать?

DM>Курица, яйца, особенно с майонезом, — это конечно хорошо, но было бы здорово увидеть какое-то определение информации. Без него статья незаконченная.


Могу подсунуть такое дополнительное определение, как вариант. Информация это особые состояния физической среды, которые воздействуют на некоторые системы особым образом. И способны вызвать значительные предсказуемые изменения в системе.
Так сказать, если в сетевую карточку попадут скачки напряжения отформатированные определенным образом, тогда весь компьютер состояние поменяет, вплоть до того что на экране монитора пиксели перекрасятся. Подашь шум — дальше сетевой карточки воздействие не пойдет.
Один вопрос — каким числом объектов можно закодировать порцию информации для передачи. Это количество информации.
И не менее важный вопрос какие существенные изменения происходят в системе-приемнике информации после приема.

Бильярдные шары на столе сталкиваясь не обмениваются информацией (а только скоростью), потому что не являются системами в правильном смысле этого слова.
Re: Статья: Как найти "информацию"
От: goto Россия  
Дата: 25.12.09 00:35
Оценка:
Какая удачная статья! Я как раз искал, на кого бы наехать.

Мой контекст обнаружил в статье путаницу и банальности, нехватку определений.

Физический носитель. А чему там вообще у нас, материалистов, дозволено его не иметь?

Инвариантность физическому представлению. Компьютерщина и Пифагор — тут кажется родным и близким, вопросов не возникает. Однако физическое представление — это что? Представление несет информацию или все-таки сигнал? А еще где-то нас дожидается [субъективный] контекст. Недораспутанная запутанность. Смысл утекает.

Инвариантность по отношению к любой физике. Вывод неочевиден (для меня). Скажем, можно высосать из пальца физику, в которой будет невозможно существование каких-то сигналов или каких-то контекстов. Если инвариантен физике тот самый "информационный объект", который "перпендикулярен" всему на свете по определению, то не является ли такой объект тривиальным, неинтересным, неконструктивным. Зачем он? Может ли он быть?

Когда я созерцаю пифагоровы штаны почти в любом виде, мне они понятны. А если я созерцаю ворону? А если, созерцая ворону, я прихожу к выводу о бренности всего сущего? Цепочку-то раскрутить можно. Но не выплескиваем ли мы младенца, пытаясь так внедрить инвариантность.

Статья, я так понимаю, околофилософская. Ты временами опираешься на понятия материального и идеального, объективного и субъективного. При этом доверяешь каким-то дефолтным, стереотипным определениям. Во-первых, я не уверен, что при попытке увязать информацию с этими категориями опоры на стереотипы достаточно. Дыры могут возникать приличные. Во-вторых, я думаю, что в рассуждениях такого уровня в этих категориях вообще нет необходимости. Можно взять востру бритву, и ага. Без материального, идеального и физических носителей будет только лучше. Кстати, заодно можно будет выбросить упоминание о нас, противных мистиках.

Это было про то, что воспринялось хуже всего. Шутки шутками, просто я, честно говоря, ожидал большего. Вот только пока не пойму, от тебя или от себя.
Re[7]: Статья: Как найти "информацию"
От: goto Россия  
Дата: 25.12.09 00:41
Оценка:
Здравствуйте, Voblin, Вы писали:

...
SH>>- и почему его не может быть?
V>Потому что ничто не запрещает информации I1 противоречить информации I2. Если наш универсальный контекст является механическим объединением противоречивых контекстов, то и горя нет. I1 и I2 растут каждый на своём поле и друг другу не мешают. Но когда мы их сталкиваем лбами внутри одного контекста, то Боливар не вынесет двоих.

Тут не понял.

Жена ищет загулявшего мужа. Все 15 друзей мужа одновременно отвечают ей: "не волнуйся, он у меня". Здесь есть противоречивая информация?

Электрон — частица; электрон — волна. А здесь?

Я к тому, что надо сначала дать определение информации, определить, может ли она быть противоречивой, определить критерии.

По-моему, информация — это просто информация, противоречивой быть не может. А человек пользуется большим количеством абстракций и прекрасно уживается с большим количеством явных и неявных парадоксов в одном контексте.
Re[5]: Статья: Как найти "информацию"
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 25.12.09 03:51
Оценка: 1 (1) +1
Здравствуйте, Silver_s, Вы писали:

S_> Когда по сетевому кабелю в сетевую карточку попадает сетевой пакет, что интересного происходит с энтропией компьютера? И сравнить со случаем когда на входе карточки случайный шум. По какой формуле расчеты проводить?


Что происходит — зависит от состояния компьютера и пакета (а не только одного пакета, тут Воблин прав).
По какой формуле — Шенноновской вполне достаточно.

S_> Энтропия это не менее размазанное понятие, чем информация


Иногда это слово действительно применяют черт знает к чему. Но ведь есть вполне стройные теории. Господа, откройте наконец книжки и почитайте Шеннона, Пенроуза, учебники по теории информации. Ведь все очень просто: есть некая система (физическая, смоделированная, квантовая — не важно), есть наблюдатель с некоторыми знаниями о ней, проводящий измерения (наблюдателем вполне может быть программа). В общем случае ему неизвестны точные значения всех параметров, поэтому он оценивает их вероятностно. Степень его незнания о системе, мера неопределенности — это энтропия. Ее мы вычисляем либо через известные вероятности состояний (см. формулу Шеннона), либо через объемы фазового пространства (формула очень похожа). Вот он проводит измерение и уменьшает свою неопределенность, свое незнание о системе. Это уменьшение и есть информация. Ее количество вычисляется ровно по тем же формулам. Если мы и так знаем все о системе, энтропия равна нулю, измерение ничего нового нам не даст, извлеченная информация равна нулю. Если мы чего-то не знаем, но измерение или сообщение не уменьшают нашей неопределенности, извлеченная информация опять равна нулю. Воблин прав, информация зависит от контекста — наших предыдущих знаний о системе. Да, никакое сообщение само по себе не содержит информации, ибо только когда есть субъект и его незнание, и когда это незнание уменьшается, только тогда есть информация. Да, неважно как именно она передается или извлекается. И нет, ее все же можно измерить в битах. И нет, она не тождественна данным. 60 лет уже это все известно тем, кто умеет читать.

S_> Могу подсунуть такое дополнительное определение, как вариант. Информация это особые состояния физической среды, которые воздействуют на некоторые системы особым образом. И способны вызвать значительные предсказуемые изменения в системе.


Слишком неконкретно (особое то, особое се), на определение не годится.
Re[6]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 25.12.09 10:05
Оценка:
Здравствуйте, Шахтер, Вы писали:

V>>Не надо антиэнтропии. Из розетки в мой комп поступает электрическая энергия, а не электрическая антиэнтропия.

Ш>Которая целиком в виде тепла отдаётся в окружающую среду.
Ш>Компьютер не потребляет энергию. Энергию вообще потребить невозможно -- закон сохранения энергии мешает.

Совершенно верно.

V>>Очень принципиален. Речь идет о нащупывании границы применимости принципа Тьюринга. Того самого, который многими горячими головами считается универсальным и вселенским.

Ш>принципа Тьюринга -- это ты о чем?

Есть обработка информации (с этим бесполезно спорить так как сам спор является обработкой информации). И есть вычисление. Вычисление — вполне конкретная штука, очень хорошо "прорытая" в середине XX века. Один из выводов заключается в том, что все универсальные вычислители эквивалентны машине Тьюринга.
Если верна гипотеза о том, что любая обработка информации является вычислением, то любой обработчик информации может быть реализован машиной Тьюринга. Если эта гипотеза не верна, то некоторые виды обработки информации (те, которые являются вычислениями) могут быть реализованы на МТ, а все остальные — нет.

Ш>>>Ну почему же. Есть вполне объективные способы измерить если не информацию, то сообщение.

V>>Ага. Можно ещё мерить книги в килограммах.
Ш>Неуместная ирония.

Может быть.
ОК. Меряем сообщение. Но что мы в нём меряем? Т.н. содержание? С этим облом. Для вычисления количества бит по известной формуле нужно задать распределение плотностей вероятности появления символов первичного алфавита, но в сообщении оно (распределение) не содержится. Оно содержится где-то ещё (я назвал это контекстом). В сообщении содержатся только сами символы первичного алфавита. Т.е. взяв конкретный сигнал (например, файл), мы не можем посчитать количество бит . Не хватает распределения плотностей вероятности, которое обязательно нужно подставить в формулу.
Так что же мы имеем в виду, когда говорим "файл размером 100 килобайт"? Ошибаемся? Путаем термины? Нет. У этого высказывания есть вполне конкретный технический смысл. Смысл этот состоит в том, что мы говорим, что длина и конструкция данного конкретного сигнала таковы, что максимально возможное количество равноожидаемых различимых состояний, которое может обслужить данное изделие, равно 2 в степени 100*1024*8. Т.е. не количество информации, которое содержится в файле (там информация вообще не содержится), а максимально возможное количество информации, которое может быть извлечено из устройства. Потенциальная ёмкость.

Ш>У сигнала всегда есть субьект-отправитель и субьект-получатель.


Как быть с вороной и с восходом Солнца?
Re[12]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 25.12.09 10:44
Оценка:
Здравствуйте, SergH, Вы писали:

Извиняюсь за задержку с ответом.

SH>Сомнения возникли. В твоей благонадёжности

Типа продался иноплатентным киборгам-убийцам?

SH>А в плане разума? Разум -- осмысленное понятие?

Наверно, осмысленное. Я не знаю. Слово настолько затасканное, что я не возьмусь утверждать, может ли в принципе компьютер обладать разумом. И даже не возьмусь утверждать, разумны ли люди.

SH>Тут просто смотри какая штука. Тут не понятно где остановиться. Преобразование битовых строк в компьютере ты называешь преобразованием информации. А умение отличать одни строки от других (в основном командой switch) -- контекстом.


Умение — да, контекст.

SH>А замок, который ключи распознаёт и дверь открывает -- он тоже информацию преобразует? Контекст задаётся положением внутренних деталек, правильные ключи преобразуются в "да", неправильные в "нет". Такой вот информационный прибор.


Если мы говорим о распознавании ключа (т.е. об информационном процессе), то контекст реализуется положением внутренних деталек. А задаётся он потребностью своих впускать, а чужих не впускать.
Почему правильный ключ может провернуть замок, а неправильный — нет? Потому что запихивание правильного ключа в скважину сдвигает штырёчки в то положение, при котором проворачивание возможно, а запихивание неправильного ключа такого эффекта не даёт. Чистая механика. Физика.
Для чего сделано так, что правильный ключ может провернуть замок, а неправильный — нет? Для того, чтобы своих впускать, а чужих не впускать.
Разница между парами "почему — потому" и "для чего — для того" чувствуется?

SH>А будильник? Он не просто стрелку сдвигает, он ещё и звенит когда нужно. Вообще, кстати, без внешних сигналов.


Через будильник я посылаю сигнал "вставай" от себя сейчашнего, бодрствующего себе спящему, которым я буду через восемь часов.

SH>О, ещё про контекст. Помнишь анекдот про термос? Который "а откуда же он знает"? Тождественное преобразование -- это же тоже информационное преобразование. Или "тождественный нуль". Почему нет? Устроить тождественный нуль винчестеру можно молотком. А с простым тождественным информационным преобразованием справляется как винчестер так и бумага. И те самые папирусы.


Что-то про это самое тождественное преобразование я ничего не понял. Анекдот про термос не помню.

SH>Далее, ты там говорил, что при алгоритмических вычисления количество информации не меняется. Компьютер занимается именно ими, значит количество информации он не меняет. Так может ему не нужен контекст для этого? Или он всё же меняет информацию? А что в ней тогда меняется?


Компьютер преобразует одни сигналы в другие сигналы. А в сигналах информация не содержится ни до, ни после преобразования.
Re[13]: Статья: Как найти "информацию"
От: SergH Россия  
Дата: 25.12.09 11:20
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Типа продался иноплатентным киборгам-убийцам?


Типа того. Идеологически нестоек, не развито классовое чутьё.

SH>>А в плане разума? Разум -- осмысленное понятие?

V>Наверно, осмысленное. Я не знаю. Слово настолько затасканное, что я не возьмусь утверждать, может ли в принципе компьютер обладать разумом. И даже не возьмусь утверждать, разумны ли люди.

Вот это неприятно.
Потому что "люди разумны" это для меня наблюдаемый факт. Если теория наблюдаемым фактам противоречит, то в пень такую теорию.

SH>>Тут просто смотри какая штука. Тут не понятно где остановиться. Преобразование битовых строк в компьютере ты называешь преобразованием информации. А умение отличать одни строки от других (в основном командой switch) -- контекстом.


V>Умение — да, контекст.


SH>>А замок, который ключи распознаёт и дверь открывает -- он тоже информацию преобразует? Контекст задаётся положением внутренних деталек, правильные ключи преобразуются в "да", неправильные в "нет". Такой вот информационный прибор.


V>Если мы говорим о распознавании ключа (т.е. об информационном процессе), то контекст реализуется положением внутренних деталек. А задаётся он потребностью своих впускать, а чужих не впускать.

V>Почему правильный ключ может провернуть замок, а неправильный — нет? Потому что запихивание правильного ключа в скважину сдвигает штырёчки в то положение, при котором проворачивание возможно, а запихивание неправильного ключа такого эффекта не даёт. Чистая механика. Физика.
V>Для чего сделано так, что правильный ключ может провернуть замок, а неправильный — нет? Для того, чтобы своих впускать, а чужих не впускать.
V>Разница между парами "почему — потому" и "для чего — для того" чувствуется?

Угу, только я не понял, при чём это тут

Напоминаю, к чему я написал про замок.

Ты сказал, что у компьютера есть контекст, и что он воспринимает/обрабатывает/... информацию (иначе, к чему контекст). Ты пояснил, почему с твоей точки зрения контекст есть. TCP/IP и т.п. Я привёл пример попроще, когда контекст тоже вроде как есть. Значит и тут тоже у нас информация.

Мне кажется, таким образом ты:
— чрезмерно расширяешь понятие информации.
— делаешь это необоснованно. Все происходящие в замке/компьютере объяснимо без этого понятия. Оккам отрежет.
— переносишь выводы, полученные на таких смешных цифровых модельках в голову. Не имея для этого никаких оснований.

V>Что-то про это самое тождественное преобразование я ничего не понял. Анекдот про термос не помню.


Анекдот про термос: http://ifun.su/fun/anecdot/48134/

Тождественное преобразование это когда ничего не меняется. Тождественный нуль это когда была и нету.
Это же информационные преобразования?

V>Компьютер преобразует одни сигналы в другие сигналы. А в сигналах информация не содержится ни до, ни после преобразования.


А в процессе преобразования сигналов?
Делай что должно, и будь что будет
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 25.12.09 13:31
Оценка: 20 (2)
Здравствуйте, goto, Вы писали:

G>Какая удачная статья! Я как раз искал, на кого бы наехать.

Спасибо. А я как раз ищу, кто бы на эту статью пожёстче наехал

G>Физический носитель. А чему там вообще у нас, материалистов, дозволено его не иметь?

Вопрос о первичности материи и сознания? Этот вопрос является животрепещущим только для марксистско-ленинской философии. И прочим монистам.
Пляски с бубном вокруг противопоставления материи и сознания и споров на тему "что первично" и "кто главнее" Мераб Мамардашвили называл "философский детский сад".
Есть мнение, что одновременно верны следующие два утверждения:
1). Материя первична в том смысле, что сознательные явления обязаны быть на чём-то реализованы.
2). Сознание первично в том смысле, что их объективное существование основано на том, что об этой самой объективности можно говорить, только противопоставляя её субъективности. Нес субъекта — нет и объекта. "Нечто" существует, но объектом не является.

G>Инвариантность физическому представлению. Компьютерщина и Пифагор — тут кажется родным и близким, вопросов не возникает. Однако физическое представление — это что? Представление несет информацию или все-таки сигнал? А еще где-то нас дожидается [субъективный] контекст. Недораспутанная запутанность. Смысл утекает.

Смысл не утекает, а рекурсивно зацикливается на другие смыслы. Которые в свою очередь... и так далее до бесконечности. Или циклично.

G>Инвариантность по отношению к любой физике. Вывод неочевиден (для меня). Скажем, можно высосать из пальца физику...

Высосать из пальца можно всё что угодно.
Физика как наука начинается тогда, когда из изучаемого явления изгоняется гомункл. Пока мы считаем, что небесные сферы вращаются ангелами, мы не можем говорить о законах движения. Потому что завтра у ангелов настроение может измениться.
Разговор об информации начинается тогда, когда в изучаемое явление пригоняется гомункл. Если в чём-то нет семантики (т.е. смысла), то оно не является информацией. А о смысле можно говорить только тогда, когда есть кто-то, кому не всё равно. То есть гомункл.
Вот и получается, что если впустили гомункла в рассуждения, кончается физика, а если не впустили — кончается информатика. Одновременно впустить и не впустить невозможно.

Так что, говоря об информации, отправляем лесом все рассуждения о квантах даже не пытаясь в них вчитаться.

G>Статья, я так понимаю, околофилософская. Ты временами опираешься на понятия материального и идеального, объективного и субъективного. При этом доверяешь каким-то дефолтным, стереотипным определениям.

Той философии, которую я на пальцах попытался объяснить выше, достаточно?
Re[7]: Статья: Как найти "информацию"
От: L.Long  
Дата: 25.12.09 16:29
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Как быть с вороной и с восходом Солнца?


С вороной все довольно просто, если рассматривать глаз как устройство для сбора информации об окружающей среде, а мозг — как приемник.
... << RSDN@Home 1.2.0 alpha 4 rev. 1237>>
Чем совершеннее технически средство, тем более примитивные, никчемные и бесполезные сведения при его помощи передаются.(с)Станислав Лем
Re[6]: Статья: Как найти "информацию"
От: DenisCh Россия  
Дата: 25.12.09 18:46
Оценка:
Здравствуйте, Шахтер, Вы писали:

Ш>Компьютер не потребляет энергию. Энергию вообще потребить невозможно -- закон сохранения энергии мешает.


Он потребляет структурированную энергию, переводя в неструктрурированную
... << RSDN@Home 1.2.0 alpha rev. 741>>
Re[3]: Статья: Как найти "информацию"
От: goto Россия  
Дата: 26.12.09 01:45
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, goto, Вы писали:


G>>Какая удачная статья! Я как раз искал, на кого бы наехать.

V>Спасибо. А я как раз ищу, кто бы на эту статью пожёстче наехал

G>>Физический носитель. А чему там вообще у нас, материалистов, дозволено его не иметь?

V>Вопрос о первичности материи и сознания? Этот вопрос является животрепещущим только для марксистско-ленинской философии. И прочим монистам.
V>Пляски с бубном вокруг противопоставления материи и сознания и споров на тему "что первично" и "кто главнее" Мераб Мамардашвили называл "философский детский сад".
V>Есть мнение, что одновременно верны следующие два утверждения:
V>1). Материя первична в том смысле, что сознательные явления обязаны быть на чём-то реализованы.
V>2). Сознание первично в том смысле, что их объективное существование основано на том, что об этой самой объективности можно говорить, только противопоставляя её субъективности. Нес субъекта — нет и объекта. "Нечто" существует, но объектом не является.

Я на это и намекал. Я бы выбросил двусмысленности и лазейки в детские сады. На мой взгляд, в их использовании нет необходимости. Или обозначил кое-какие определения, хотя тогда статья может получиться нудной.

G>>Инвариантность физическому представлению. Компьютерщина и Пифагор — тут кажется родным и близким, вопросов не возникает. Однако физическое представление — это что? Представление несет информацию или все-таки сигнал? А еще где-то нас дожидается [субъективный] контекст. Недораспутанная запутанность. Смысл утекает.

V>Смысл не утекает, а рекурсивно зацикливается на другие смыслы. Которые в свою очередь... и так далее до бесконечности. Или циклично.

Э-э-э? Информация -> сингнал -> информация -> сингнал?

G>>Инвариантность по отношению к любой физике. Вывод неочевиден (для меня). Скажем, можно высосать из пальца физику...

V>Высосать из пальца можно всё что угодно.
V>Физика как наука начинается тогда, когда из изучаемого явления изгоняется гомункл. Пока мы считаем, что небесные сферы вращаются ангелами, мы не можем говорить о законах движения. Потому что завтра у ангелов настроение может измениться.
V>Разговор об информации начинается тогда, когда в изучаемое явление пригоняется гомункл. Если в чём-то нет семантики (т.е. смысла), то оно не является информацией. А о смысле можно говорить только тогда, когда есть кто-то, кому не всё равно. То есть гомункл.
V>Вот и получается, что если впустили гомункла в рассуждения, кончается физика, а если не впустили — кончается информатика. Одновременно впустить и не впустить невозможно.

V>Так что, говоря об информации, отправляем лесом все рассуждения о квантах даже не пытаясь в них вчитаться.


Это мои ошибки. Во-первых, вижу, что зря употребил фразу "высосать из пальца". Это, похоже, породило гомункула, ангелов и кванты. Во-вторых, каюсь, был невнимателен. Оказывается, инвариантен не информационный объект, а некая философия информации. Поскольку я могу только догадываться, что это такое, и не знаю, что подразумевается под инвариантностью, то спорить не буду.

G>>Статья, я так понимаю, околофилософская. Ты временами опираешься на понятия материального и идеального, объективного и субъективного. При этом доверяешь каким-то дефолтным, стереотипным определениям.

V>Той философии, которую я на пальцах попытался объяснить выше, достаточно?

Как бы ты сам ответил? Но я наехал, свои проблемы решил. Спасибо.

На самом деле это было лишь впечатление читателя-дилетанта, который тоже размышляет об информации, но не очень интенсивно. Я думал, что-то будет полезно. Разводить большие философии не стремлюсь, так что можно забить.
Re: Статья: Как найти "информацию"
От: dotneter  
Дата: 26.12.09 09:56
Оценка:
А кто у вас может выступать в роли субъекта с контекстом?
... << RSDN@Home 1.2.0 alpha 4 rev. 1111>>
Talk is cheap. Show me the code.
Re[7]: Статья: Как найти "информацию"
От: mefrill Россия  
Дата: 26.12.09 12:18
Оценка: 6 (1)
Здравствуйте, Voblin, Вы писали:

Ш>>принципа Тьюринга -- это ты о чем?

V>Есть обработка информации (с этим бесполезно спорить так как сам спор является обработкой информации). И есть вычисление. Вычисление — вполне конкретная штука, очень хорошо "прорытая" в середине XX века. Один из выводов заключается в том, что все универсальные вычислители эквивалентны машине Тьюринга.

Это ты малость попутал. Не вывод, а гипотеза, точнее "тезис". И не Тьюринга, а Черча. Не знаю, что такое "универсальный вычислитель" (если ты под этим универсальную машину Тьюринга понимаешь, то у нее как раз и есть проблемы с вычислением, копать надо в сторону "проблема останова"), Черч говорил о том, что любой процесс, интуитивно воспринимаемый как "вычисление" (алгоритм), может быть реализован некоторой рекурсивно-перечислимой функцией. Тьюринг, когда придумал свой формализм представления процесса вычисления, доказал, что любой процесс, который может быть описан рекурсивно-перечислимой функцией, может быть описан и машиной Тьюринга, и наоборот. Т.е., что эти формализмы описывают эквивалентные понятия. В этом он считал еще одно подтвержение того, что гипотеза Черча верна, т.к. разные формализмы приводят к одним и тем же результатам.
Re[7]: Статья: Как найти "информацию"
От: Шахтер Интернет  
Дата: 26.12.09 20:45
Оценка:
Здравствуйте, DenisCh, Вы писали:

DC>Здравствуйте, Шахтер, Вы писали:


Ш>>Компьютер не потребляет энергию. Энергию вообще потребить невозможно -- закон сохранения энергии мешает.


DC>Он потребляет структурированную энергию, переводя в неструктрурированную


Не знаю, что такое структура энергии. Есть боллее высокоэнтропийные виды энергии, и менее. Например, электромагнитное излучение более высокой частоты менее энтропийно.
В XXI век с CCore.
Копай Нео, копай -- летать научишься. © Matrix. Парадоксы
Re[8]: Статья: Как найти "информацию"
От: hexamino http://hexamino.blogspot.com/
Дата: 26.12.09 20:51
Оценка:
Здравствуйте, Шахтер, Вы писали:

Ш>Не знаю, что такое структура энергии. Есть боллее высокоэнтропийные виды энергии, и менее. Например, электромагнитное излучение более высокой частоты менее энтропийно.


Можно поинтерересоваться, сколько энтропии содержит 1 джоуль излучения с частотой w?
Re[7]: Статья: Как найти "информацию"
От: Шахтер Интернет  
Дата: 26.12.09 20:54
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, Шахтер, Вы писали:


V>>>Не надо антиэнтропии. Из розетки в мой комп поступает электрическая энергия, а не электрическая антиэнтропия.

Ш>>Которая целиком в виде тепла отдаётся в окружающую среду.
Ш>>Компьютер не потребляет энергию. Энергию вообще потребить невозможно -- закон сохранения энергии мешает.

V>Совершенно верно.


V>>>Очень принципиален. Речь идет о нащупывании границы применимости принципа Тьюринга. Того самого, который многими горячими головами считается универсальным и вселенским.

Ш>>принципа Тьюринга -- это ты о чем?

V>Есть обработка информации (с этим бесполезно спорить так как сам спор является обработкой информации). И есть вычисление. Вычисление — вполне конкретная штука, очень хорошо "прорытая" в середине XX века. Один из выводов заключается в том, что все универсальные вычислители эквивалентны машине Тьюринга.

V>Если верна гипотеза о том, что любая обработка информации является вычислением, то любой обработчик информации может быть реализован машиной Тьюринга. Если эта гипотеза не верна, то некоторые виды обработки информации (те, которые являются вычислениями) могут быть реализованы на МТ, а все остальные — нет.

Это важный вопрос, но он не принципиален, тем не менее, потому что ну не будет машины Тьюринга, будет что-то ещё. Будут соответственно, какие-нибудь квантовые компьютеры. Всё равно это устройство, которое потребляет/хранит/преобразует сообщения. Возможно, сообщения тоже будут не классическими -- дискретными, а квантовыми.

Ш>>>>Ну почему же. Есть вполне объективные способы измерить если не информацию, то сообщение.

V>>>Ага. Можно ещё мерить книги в килограммах.
Ш>>Неуместная ирония.

V>Может быть.

V>ОК. Меряем сообщение. Но что мы в нём меряем?

Например, количество бит.

V> Т.н. содержание? С этим облом. Для вычисления количества бит по известной формуле ...


Я так и не понял, ты о содержании, или о количестве бит?

Ш>>У сигнала всегда есть субьект-отправитель и субьект-получатель.


V>Как быть с вороной и с восходом Солнца?


Опять твоя мысль от меня ускользнула.
В XXI век с CCore.
Копай Нео, копай -- летать научишься. © Matrix. Парадоксы
Re[8]: Статья: Как найти "информацию"
От: DenisCh Россия  
Дата: 27.12.09 11:11
Оценка:
Здравствуйте, Шахтер, Вы писали:

Ш>>>Компьютер не потребляет энергию. Энергию вообще потребить невозможно -- закон сохранения энергии мешает.

DC>>Он потребляет структурированную энергию, переводя в неструктрурированную
Ш>Не знаю, что такое структура энергии.

Это мои измышлизмы. Есть виды потребялемой энергии — те, кторые можо сразу потребить, и те, которые нужно структуририровать, aka преобразовывать
... << RSDN@Home 1.2.0 alpha rev. 741>>
Re: Статья: Как найти "информацию"
От: jazzer Россия Skype: enerjazzer
Дата: 28.12.09 06:38
Оценка:
Здравствуйте, Voblin, Вы писали:

В выражении «2+2» уже содержится ответ «4».

Только если ты умеешь складывать числа (т.е. контекст).

Сравни контексты:
1) Я знаю, как складывать числа
2) Я знаю, что 2+2=4
3) Я знаю, как складывать числа, и знаю, что 2+2=4

И рассмотри, как изменяется контекст под воздействием сообщений "2+2", "4", "2+2=4", "числа складываются вот так", "2+2=4, числа складываются вот так", "2+2, числа складываются вот так".

Аналогично

Если я скажу своему товарищу, что пароль, установленный на мою учётную запись – это тысячное простое число, то он сможет войти в мой компьютер.

Попробуй скажи своему трехлетнему сыну (если у тебя такой есть), что твой пароль — тысячное простое число, и посмотри, сможет ли он зайти в твой компьютер.
А теперь скажи ему, что пароль — 123456789 (короче, само это тысячное простое число) и посмотри, сможет ли он это сделать теперь.
В каком случае можно сказать, что ты передал ему информацию?

Тут, конечно, можно поспорить, является ли информацией знание частного, если есть знание общего.
Имхо — является, просто потому, что для получения частного нужно совершить работу по извлечению ее из общего (ака вычисление).

Этот подход замечательно работает ровно до тех пор, пока получение информации имеет своей целью устранение неопределённости. Если же никакой неопределённости не было, а получение информации преследовало совсем другие цели, то все рассуждения рассыпаются как карточный домик.

Можно увидеть пример совсем других целей? Имхо, информация — это всегда переход от "не знаю" к "знаю", включая 2+2 и пароль от твоего компа.
Т.е. это изменение контекста:
контекст1 + сообщение -> контекст2

И количество информации, содержащейся в сообщении (сигнале) — это максимальная величина изменения произвольного контекста (понятно, что если ты передаешь информацию, которая частично уже есть в контексте, то информационная ценность соответственно уменьшается, а если она содержится там вся или ее в данном контексте извлечь невозможно, то она равна нулю).
Т.е.
информационная ценность = размер(контекст2) - размер(контекст1)

а объем информации, содержащейся в сообщении — это максимум информационной ценности этого сообщения по всем контекстам.
И это вполне можно мерять в битах.


Насчет аддитивности информации — информацию можно рассматривать как множество (фактов), и применять стандартные теоретико-множественные операции и меры.
Т.е. добавление во множество элемента, который к нем уже есть, ничего не меняет. И т.д.
В этом смысле вычисление — это производство новых фактов из имеющихся и добавление их в контекст. Т.е. контекст все равно расширяется, хоть и нет информации извне.

Примера с квайном я не понял: у тебя уже есть код программы, так что запуск ее, производящий ровно то же самое, никакой информации не генерирует, т.е. это все равно что она не печатает ничего.
jazzer (Skype: enerjazzer) Ночная тема для RSDN
Автор: jazzer
Дата: 26.11.09

You will always get what you always got
  If you always do  what you always did
Re: Статья: Как найти "информацию"
От: TimurSPB Интернет  
Дата: 28.12.09 10:56
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, уважаемые,


V>Некоторое время назад мы здесь много и весьма интересно рассуждали о природе информации.

V>В качестве "продолжения банкета" предлагаю вам свою статью Как найти "информацию".

V>Если можно, маленькая просьба. Если у кого-то есть знакомые, профессионально занимающиеся этой тематикой (философия информации, философия, теоретическая информатика и т.п.), очень бы мне хотелось на них выйти.

V>Чтобы порка была произведена профессионально

Спасибо за статью.
Сегодня получил ссылочку на курс по этой теме, может будет интересно.
Make flame.politics Great Again!
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 11:53
Оценка:
Здравствуйте, TimurSPB, Вы писали:

TSP>Спасибо за статью.

TSP>Сегодня получил ссылочку на курс по этой теме, может будет интересно.

Если бы я писал о том, как найти информацию, то было бы полезно. Но у меня про то, как найти "информацию", что немножко другое.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 12:21
Оценка:
Здравствуйте, dotneter, Вы писали:

D>А кто у вас может выступать в роли субъекта с контекстом?


Если мы говорим о явлении с информационной точки зрения (т.е. в рассуждениях присутствуют слова "информация", "преобразование информации"), то в роли субъекта может выступать что угодно и кто угодно.

Маленькое ограничение. Рассуждать о процессах, происходящих в неживой природе в информационных терминах — хм... некорректно. Планеты движутся по эллиптическим орбитам не потому, что получают от Солнца информацию о гравитационном поле и преобразуют её в информацию о своём движении.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 13:27
Оценка:
Здравствуйте, jazzer, Вы писали:

V>>В выражении «2+2» уже содержится ответ «4».

J>Только если ты умеешь складывать числа (т.е. контекст).
J>...

Про непоявление новой информации при вычислении — это было "лирическое отступление", добавленное для иллюстрации запущенности проблемы. С применением "контекстной зависимости" информации всё становится просто, ясно и... не интересно для дальнейшего обсуждения.

J>Тут, конечно, можно поспорить, является ли информацией знание частного, если есть знание общего.

J>Имхо — является, просто потому, что для получения частного нужно совершить работу по извлечению ее из общего (ака вычисление).

Отношение "частное-общее" годится, но не всегда. Может быть ещё "до-после". Многие это не принимают в расчёт. Даже если я закрою глаза и "отключусь" ото всех раздражителей, всё равно я сейчас не буду знать, о чём я подумаю через секунду.

J>Можно увидеть пример совсем других целей? Имхо, информация — это всегда переход от "не знаю" к "знаю", включая 2+2 и пароль от твоего компа.

В общем виде это не переход от "не знаю" к "знаю", а переход от "до поступления сигнала" к "после поступления сигнала". А уж что там конкретно произошло — увеличилось знание или всё окончательно запуталось — это уже "интимная подробность", которая в данном случае не важна.
J>Т.е. это изменение контекста:
J>
J> контекст1 + сообщение -> контекст2

Лучше так:
контекст1 + сообщение -> информация -> контекст2

Ничего интересного. Слишком обобщённая "принципиальная схема" того, как работает память.

J>И количество информации, содержащейся в сообщении (сигнале) — это максимальная величина.......

Что за страсть лазить везде с линейкой? Типа если что-то нельзя измерить числом, то об этом и думать не стоит? Какая наивность! Самые важные вещи, о которых больше всего стоит думать, таковы, что никаким числом не меряются: любовь, смерть, долг, справедливость, свобода, честь, красота.

J>Насчет аддитивности информации — информацию можно рассматривать как множество (фактов), и применять стандартные теоретико-множественные операции и меры.


Если мы что-то рассматриваем как множество, то мы можем применять теоретико-множественные операции. Множество фактов — пожалуйста, множество ангелов — нет проблем.
Кстати, что такое факт? А то ведь обидно будет рассматривать множество неизвестно чего.

J>Примера с квайном я не понял: у тебя уже есть код программы, так что запуск ее, производящий ровно то же самое, никакой информации не генерирует, т.е. это все равно что она не печатает ничего.


Если программа (говорю о программе вообще, а не о квайне) написана на C++, то исходника в экзешнике нет.
Re[6]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 14:22
Оценка:
Здравствуйте, D. Mon, Вы писали:

V>>Утверждение о том, что ни в книгах, ни в фильмах, ни в звуках не содержится никакой информации — это есть в теории информации?

DM>Кто Шеннона читал, для того это не новость. Например, сообщение "Земля не плоская" содержит для меня ровно 0 бит информации...

А в новых, интересных, замечательных, долгожданных книгах и фильмах?

V>>То, что вот это моё высказывание само по себе не может быть ни истинным, ни ложным — это банальность?

DM>Высказывания о том, чему не дано определения, вообще трудно оценивать на истинность.

Моему высказыванию нужно давать какое-то дополнительное высоконаучное определение? Вот оно, есть "как есть".

V>>Не очень понятно, что нужно смотреть в статистике. Пресловутые распределения плотностей вероятностей? И что мы там можем найти?

DM>Понимание.

Статистика вообще не склонна давать понимание. По сути, она сейчас обычно применяется как некий шаманский метод делать какие-то выводы из собранной как-то кем-то зачем-то кучи цифири.
Применять тервер и считать среднее арифметическое (ок, корреляцию) легко. А вот обосновать применимость тервера и статистики в данном контретном случае бывает ой как сложно...
Даже когда статистика применена правильно, она никогда не даёт окончательный ответ. И никогда не даёт объяснение. Она даёт только пищу для размышлений.

DM>Я про информационное содержание физических измерений и понятия энтропии.


ОК. Измерение. В ЛЮБОМ измерении участвуют как минимум двое: измеряемый и измеряющий. Объект измерения и субъект измерения.
Обязанность объекта — выдать сигнал. При этом может не происходить никаких информационных процессов, только чистая физика.
Задача измеряющего — принять сигнал и извлечь из него информацию. И в этом процессе уже нет физики, но есть гомункл — семантика (она же смысл) полученных данных.
Караул! В физическое измерение влез подлый гомункл!

DM>Еще раз прошу помедитировать над формулой квантовой энтропии.

Если займусь квантовой физикой, обязательно посмотрю. А сейчас без надобности. В силу принципиальной ортогональности (она же инвариантность и монопенисуальность) информации и физики.
Re[8]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 14:24
Оценка:
Здравствуйте, L.Long, Вы писали:

LL>С вороной все довольно просто, если рассматривать глаз как устройство для сбора информации об окружающей среде, а мозг — как приемник.


Это понятно. Не понятно, где искать отправителя сообщения.
Re[8]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 14:31
Оценка:
Здравствуйте, mefrill, Вы писали:

M>Это ты малость попутал. Не вывод, а гипотеза, точнее "тезис". И не Тьюринга, а Черча.


Спасибо за уточнение. Мы, замшелые императивщики, любим называть это принципом Тьюринга. Видимо, это одно из проявлений всемирного заговора против более продвинутых функциональщиков
Re[3]: Статья: Как найти "информацию"
От: dotneter  
Дата: 29.12.09 14:32
Оценка:
Здравствуйте, Voblin, Вы писали:

V>то в роли субъекта может выступать что угодно.


V>Маленькое ограничение. Рассуждать о процессах, происходящих в неживой природе в информационных терминах — хм... некорректно.

Так может быть не живое субъектом или нет?
... << RSDN@Home 1.2.0 alpha 4 rev. 1111>>
Talk is cheap. Show me the code.
Re[4]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 14:45
Оценка:
Здравствуйте, dotneter, Вы писали:

V>>Маленькое ограничение. Рассуждать о процессах, происходящих в неживой природе в информационных терминах — хм... некорректно.

D>Так может быть не живое субъектом или нет?

Честное слово, легко. Сам делаю неживые предметы, которые умеют обрабатывать информацию.
Re[5]: Статья: Как найти "информацию"
От: dotneter  
Дата: 29.12.09 15:01
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Честное слово, легко. Сам делаю неживые предметы, которые умеют обрабатывать информацию.

Тоесть два атома обменявшись фотонами, передали информацию?
... << RSDN@Home 1.2.0 alpha 4 rev. 1111>>
Talk is cheap. Show me the code.
Re[6]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 15:17
Оценка:
Здравствуйте, dotneter, Вы писали:

V>>Честное слово, легко. Сам делаю неживые предметы, которые умеют обрабатывать информацию.

D>Тоесть два атома обменявшись фотонами, передали информацию?

Если я их туда посадил этим заниматься, то да. А что?
Re[7]: Статья: Как найти "информацию"
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 29.12.09 15:24
Оценка:
Здравствуйте, Voblin

Я там ниже чуть расшифровал про информацию, физику и энтропию:
http://rsdn.ru/forum/philosophy/3652697.aspx
Автор: D. Mon
Дата: 25.12.09
Re[9]: Статья: Как найти "информацию"
От: L.Long  
Дата: 29.12.09 15:40
Оценка:
Здравствуйте, Voblin, Вы писали:

LL>>С вороной все довольно просто, если рассматривать глаз как устройство для сбора информации об окружающей среде, а мозг — как приемник.


V>Это понятно. Не понятно, где искать отправителя сообщения.


Дык глаз же отправитель. Датчик который.
... << RSDN@Home 1.2.0 alpha 4 rev. 1237>>
Чем совершеннее технически средство, тем более примитивные, никчемные и бесполезные сведения при его помощи передаются.(с)Станислав Лем
Re[7]: Статья: Как найти "информацию"
От: dotneter  
Дата: 29.12.09 16:08
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Если я их туда посадил этим заниматься, то да.

Нет, они этим занимаются самостоятельно, по природе вещей, без чьего либо наставления.
... << RSDN@Home 1.2.0 alpha 4 rev. 1111>>
Talk is cheap. Show me the code.
Re: Статья: Как найти "информацию"
От: Banch  
Дата: 29.12.09 21:07
Оценка:
Мне кажется выражение:
сигнал + контекст = информация
правильнее будет так:
сигнал + контекст =~ знание

Почему "=~" ? Потому что происходит не обязательное получение знания, а понимание.
Например, двое, обладающих одинаковым контекстом, получают одну и туже информацию. Один приобретает знание, другой нет. Один понял, другой нет. Почему это происходит — вот хорошая загадка
Re[3]: Статья: Как найти "информацию"
От: jazzer Россия Skype: enerjazzer
Дата: 30.12.09 00:28
Оценка: 1 (1)
Здравствуйте, Voblin, Вы писали:

V>Про непоявление новой информации при вычислении — это было "лирическое отступление", добавленное для иллюстрации запущенности проблемы. С применением "контекстной зависимости" информации всё становится просто, ясно и... не интересно для дальнейшего обсуждения.

А, ну если цель была напустить туману, а не сделать просто и ясно...

J>>Тут, конечно, можно поспорить, является ли информацией знание частного, если есть знание общего.

J>>Имхо — является, просто потому, что для получения частного нужно совершить работу по извлечению ее из общего (ака вычисление).

V>Отношение "частное-общее" годится, но не всегда. Может быть ещё "до-после". Многие это не принимают в расчёт. Даже если я закрою глаза и "отключусь" ото всех раздражителей, всё равно я сейчас не буду знать, о чём я подумаю через секунду.

Не понял, какое это отношение имеет к информации?

V>Ничего интересного. Слишком обобщённая "принципиальная схема" того, как работает память.

ну уж простите...

J>>И количество информации, содержащейся в сообщении (сигнале) — это максимальная величина.......

V>Что за страсть лазить везде с линейкой?
Потому что только после этого заканчивается словоблудие и начинается наука.

V>Типа если что-то нельзя измерить числом, то об этом и думать не стоит? Какая наивность! Самые важные вещи, о которых больше всего стоит думать, таковы, что никаким числом не меряются: любовь, смерть, долг, справедливость, свобода, честь, красота.

Для начала надо доказать, что "что-то нельзя измерить числом".
Я вот вижу, что информация (вернее, количество оной) прекрасно числом измеряется.
Остальные понятия тоже замечательно измеряются, особенно смерть — пациент либо жив, либо мертв.

J>>Насчет аддитивности информации — информацию можно рассматривать как множество (фактов), и применять стандартные теоретико-множественные операции и меры.


V>Если мы что-то рассматриваем как множество, то мы можем применять теоретико-множественные операции. Множество фактов — пожалуйста, множество ангелов — нет проблем.

V>Кстати, что такое факт? А то ведь обидно будет рассматривать множество неизвестно чего.
Факт — это единица информации (см. сепульки). Почему обидно? Ты ведь тоже не определяешь информацию, а прекрасно ее рассматриваешь.

V>Если программа (говорю о программе вообще, а не о квайне) написана на C++, то исходника в экзешнике нет.

Тогда к чему упоминание о квайне?
Если у тебя только экзешник, то ты не можешь знать, квайн это или просто printf(program_source).
jazzer (Skype: enerjazzer) Ночная тема для RSDN
Автор: jazzer
Дата: 26.11.09

You will always get what you always got
  If you always do  what you always did
Re: Статья: Как найти "информацию"
От: neurofish Россия  
Дата: 02.01.10 23:52
Оценка: 3 (1)
Рекомендую вам ознакомиться с классическим изложением ваших идей. Возможно, это поможет вам найти ответы на некоторые ваши вопросы и взглянуть на все иначе.

Ключевые слова:
— минимальная длина описания (MDL — minimum description length)
— индуктивная логика, логика Милля
— Соломонов (Solomonoff), его работы
— книга Потапова "Распознавание образов и машинное обучение"
-
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 11.01.10 13:35
Оценка: :)
Здравствуйте, neurofish, Вы писали:

N>Рекомендую вам ознакомиться с классическим изложением ваших идей. Возможно, это поможет вам найти ответы на некоторые ваши вопросы и взглянуть на все иначе.


Классику немножко почитал. К сожалению, классикой стало только то, что связано с попытками количественного измерения информации. Но так уж получилось, что эта тема (количественное измерение) — наиболее мне понятна и наименее интересна.

N>Ключевые слова:

N> — минимальная длина описания (MDL — minimum description length)
Как сказал выше, не интересно. IMHO, вообще глупость — подходить с линейкой к конкретной последовательности нулей и единиц. Или я чего не понял?

N> — индуктивная логика, логика Милля

Это который James Mill (1773–1836)? Есть что-нибудь подробное по-русски?

N> — Соломонов (Solomonoff), его работы

Посмотрел по диагонали. Опять первичный алфавит, опять какие-то количественные оценки. Скучно.

N> — книга Потапова "Распознавание образов и машинное обучение"

Книгу найти не удалось. Ну не покупать же её, в самом деле, лишь для того, чтобы понять, что её тематика от меня бесконечно далека? Кроме того, "распознавание образов" и "машинное восприятие" — это хорошие тематики, но не сейчас.

Вообще (безотносительно к книге Потапова) хочется сказать следующее: нужно прекратить дрочить на распознавание образов. Просто взять и прекратить. Проблемы "информация", "системы" и "мозги" намного глубже и интереснее, чем это навязшее в зубах распознавание образов.
Re: Статья: Как найти "информацию"
От: craft-brother Россия  
Дата: 14.01.10 07:57
Оценка: 6 (1)
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, уважаемые,


V>Некоторое время назад мы здесь много и весьма интересно рассуждали о природе информации.

V>В качестве "продолжения банкета" предлагаю вам свою статью Как найти "информацию".

Вот статья из Стенфордской философской энциклопедии: Semantic Conceptions of Information. First published Wed Oct 5, 2005 на аналогичную тему. Содержит обширную библиографию.

Может быть статья Вас заинтересует.

Главный вывод: "The problem is that we still have to agree about what information is exactly"

Так что, вопрос "что есть информация?" пока без ответа.

Успехов.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.10 11:12
Оценка: +1
Здравствуйте, craft-brother, Вы писали:

CB>Вот статья из Стенфордской философской энциклопедии: Semantic Conceptions of Information. First published Wed Oct 5, 2005 на аналогичную тему. Содержит обширную библиографию.

CB>Может быть статья Вас заинтересует.

Меня абсолютно не удовлетворяет используемое Лучано "мягкое" определение, что информация — это согласованные данные, имеющие значение. Хорошо, конечно, что сделан акцент на том, что должно быть какое-то воплощение ("данные", которые у меня обозваны сигналом). Зачем-то сделан акцент на непротиворечивости ("well-formed"). В общем-то этот акцент не мешает, но мне кажется лишним. Но вся фишка, вся суть проблемы просто засунута в то, что ОНО должно иметь значение ("meaningful"). Как только мы говорим "стоп, ребята, скажите теперь, что такое эта самая хвалёная семантика", мы сразу же возвращаемся к началу вопроса.

CB>Так что, вопрос "что есть информация?" пока без ответа.


Я знаю. И тумана вокруг "информации" напущено столько, что мама не горюй.
Именно это и сподвигло меня на написание опуса.
Re: программистский подход
От: Andrei F.  
Дата: 19.01.10 18:16
Оценка:
Здравствуйте, Voblin, Вы писали:

Информация — это особый вид данных, который представляет собой исходный код для программ, которые выполняются на вычислительном устройстве типа "мозг". Как вам такой вариант?
Re[2]: программистский подход
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.10 08:52
Оценка: 1 (1)
Здравствуйте, Andrei F., Вы писали:

AF>Информация — это особый вид данных


Ага. Лопата — это особый вид железяки...

AF>, который представляет собой исходный код для программ, которые выполняются на вычислительном устройстве типа "мозг". Как вам такой вариант?


Плохо. Мало того, что ничего не сказано, но и приплетено целиком спорное предположение о том, что в мозгу выполняются какие-то программы.
Re[3]: программистский подход
От: Andrei F.  
Дата: 20.01.10 11:12
Оценка: -2
Здравствуйте, Voblin, Вы писали:

Интересно, откуда столько язвительности?

V>Плохо. Мало того, что ничего не сказано, но и приплетено целиком спорное предположение о том, что в мозгу выполняются какие-то программы.


Сказано много, только понято мало.
То, что в мозгу есть подсистемы, которые из одних наборов данных получают другие — это очевидно. Я назвал их структуру "программой", потому что более точного слова у нас нет.
Re[4]: программистский подход
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.10 11:28
Оценка:
Здравствуйте, Andrei F., Вы писали:

AF>Интересно, откуда столько язвительности?


Не обижайся, пожалуйста. Это от того, что я просто устал читать бессмысленные (как правило, тавтологические) рассуждения об информации. Ты в этом, конечно, не виноват. Это всеобщая беда
Если обидел, извиняюсь.

AF>То, что в мозгу есть подсистемы, которые из одних наборов данных получают другие — это очевидно. Я назвал их структуру "программой", потому что более точного слова у нас нет.


Деление системы на подсистемы — это всегда упрощение. В случае мозгов — чудовищное. Самое корректное наглядное сравнение схемотехники и структуры мозга — это стадион, заполненный варёной разнокалиберной лапшой под самые верхние трибуны. Такова селява. И мы этим думаем
Re[5]: программистский подход
От: Andrei F.  
Дата: 20.01.10 11:38
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Деление системы на подсистемы — это всегда упрощение. В случае мозгов — чудовищное. Самое корректное наглядное сравнение схемотехники и структуры мозга — это стадион, заполненный варёной разнокалиберной лапшой под самые верхние трибуны. Такова селява. И мы этим думаем


Это всё же не совсем так, в мозгу выделяют вполне четко обособленные регионы. Но это в принципе вообще неважно.
Ключевая идея в том, что информация не существует без воспринимающего субъекта именно потому, что информация — это "код", а не просто пассивные данные. Она меняет восприятие того, кто воспринимает информацию. Меняет конфигурацию кусков лапши, если тебе угодно.
Re[6]: программистский подход
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.10 12:32
Оценка:
Здравствуйте, Andrei F., Вы писали:

AF>Это всё же не совсем так, в мозгу выделяют вполне четко обособленные регионы. Но это в принципе вообще неважно.


Функционально специфичные регионы — да, выделяются, но структура всего этого великолепия — полный бардак. По возможности, все-со-всеми, а там как получится.

AF>Ключевая идея в том, что информация не существует без воспринимающего субъекта именно потому, что информация — это "код", а не просто пассивные данные. Она меняет восприятие того, кто воспринимает информацию. Меняет конфигурацию кусков лапши, если тебе угодно.


Абсолютно согласен. Только если говорить про мозги, то всё, что поступает на вход и всё, что рождается внутри — это и "код", и "данные" одновременно.
С концепцией, что информация рождается при попадании сигнала в контекст, это вполне согласуется.
Re[4]: программистский подход
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 20.01.10 12:42
Оценка: +1 -1
AF>То, что в мозгу есть подсистемы, которые из одних наборов данных получают другие — это очевидно.

Земля — плоская. Это очевидно.
... << RSDN@Home 1.2.0 alpha 4 rev. 1233>>
Re[6]: программистский подход
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 20.01.10 12:42
Оценка: -1
AF>информация — это "код", а не просто пассивные данные. Она меняет восприятие того, кто воспринимает информацию. Меняет конфигурацию кусков лапши, если тебе угодно.

Кто сказал? Откуда в мозгу ООП?
... << RSDN@Home 1.2.0 alpha 4 rev. 1233>>
Re[5]: программистский подход
От: Andrei F.  
Дата: 20.01.10 14:46
Оценка:
Здравствуйте, VGn, Вы писали:

VGn>Земля — плоская. Это очевидно.


Доказательство по аналогии — демагогия. Это действительно очевидно.
Re: Статья: Как найти "информацию"
От: sto Украина http://overstore.codeplex.com
Дата: 03.03.10 15:43
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, уважаемые,


V>Некоторое время назад мы здесь много и весьма интересно рассуждали о природе информации.

V>В качестве "продолжения банкета" предлагаю вам свою статью Как найти "информацию".

V>Если можно, маленькая просьба. Если у кого-то есть знакомые, профессионально занимающиеся этой тематикой (философия информации, философия, теоретическая информатика и т.п.), очень бы мне хотелось на них выйти.

V>Чтобы порка была произведена профессионально

Собственно, не порка, как вы просили, а так, пару мыслей вслух.
И уж простите, терпения дочитать до конца не хватило, информация проситься наружу, так что ежели чьи копирайты нарушу, то ненамеренно.

Итак.
Примем как аксиому, что информация — это нечто материальное.
Точного определения информации нет — поэтому далее это слово употребляется несколько вольно, и возможно даже, что его трактовка будет меняться.
Но, что есть — то есть, на математическую строгость претендовать не буду.

У каждого участка пространства есть состояние — то есть совокупность пространственно-энергетических состояний частиц, содержащихся в нем.
Будь то поля, атомы, фотоны, кварки — не суть важно. Не будем углубляться в физику.
Таких состояний очень много. Не буду останавливаться на том, насколько их много.

Отвлечемся ненадолго. Что такое информация для человека, в простом и житейском смысле этого слова? Это то, что можно вспомнить или воспринять.
Она храниться и обрабатывается в мозгу человека, который сам по себе может считаться "участком пространства с состоянием", и его состояние и отражает ту информацию, которая в нем храниться.
Информация поступает в мозг по каналам восприятия, на которые в свою очередь воздействуют вполне материальные объекты — электромагнитные колебания, температура и т.п.

То есть информация распространяется материальными объектами, что очевидно и банально.
Информация существует как состояние материального объекта- сигнала, устройства хранения и т.п.

Любое ли состояние является информацией? Или же состояние вовсе не является информацией?
Ответа на этот вопрос однозначно, конечно же, дать нельзя из-за самой неопределенности термина.

Поэтому продолжим наблюдения. Итак: передача информации — это изменение состояния при взаимодействии.

Опять вернемся к мозгу человека. Человек воспринимает окружающую реальность лишь частично.
Даже от тех 100% информации, достигшей органов чувств, мозг отсекает более 80% процентов, и лишь малая часть обрабатывается человеком сознательно.
Далее мозг проводит интересную штуку: он строит абстракции, модели, если угодно. Что такое абстракция: это уменьшение количества информации, по большому счету.

Во всем потоке выделятся микроскопическая доля состояния, которая и важна для человека. Что же делает ее важной?

Закономерность. Повторяемость.

Закономерность — это, если можно так сказать, информация об информации. Или, более запутанно, информация, позволяющая обрабатывать поток информации, как бы функция, или алгоритм.
Маленькое состояние, хранящее избранные моменты большого состояния.
Важно то, что закономерности бывают различные, от закона всемирного тяготения, до узнавания лиц.
Закономерности тоже являются информацией, и имеют все ее свойства: физическое воплощение, возможность передачи и т.п.

Важно то, что функция закономерности имеет "КПД < 1", она деструктивна по сути.
Это обусловлено как фундаментальным квантовым принципом неопределенности, так и особенностями самой функции,
предназначенной для размещения состояния пространства большого объема в меньшем.
Лишнюю, ненужную информацию она попросту отбрасывает.

Есть ли информация в нерасшифрованных иероглифах? Безусловно, потому что в них есть закономерность.
Есть ли информация в камне? Безусловно, более того, в камне ее очень и очень много.
Если ли на поверхности камня русские слова — возможно, однако они не являются закономерностью.
There is no such thing as the perfect design.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 05.03.10 12:02
Оценка:
Здравствуйте, sto, Вы писали:

sto>Собственно, не порка, как вы просили, а так, пару мыслей вслух.


Тоже годится.

sto>Примем как аксиому, что информация — это нечто материальное.


Не надо такой аксиомы.

Попробуем подумать над такими вопросами:
1. Чем материальное отличается от нематериального (идеального)?
2. Если есть что-то материальное, то, значит, должно быть что-то кроме материального. Иначе зачем вообще говорить о материальном, если материально вообще всё, что существует? Может быть, говорить нужно о существующем и несуществующем?

Побродив вокруг этих вопросов, приходим к выводу, что если есть что-то одновременно и существующее, и нематериальное, то информация — лучший кандидат на эту должность.

sto>У каждого участка пространства есть состояние — то есть совокупность пространственно-энергетических состояний частиц, содержащихся в нем.

sto>Будь то поля, атомы, фотоны, кварки — не суть важно. Не будем углубляться в физику.
sto>Таких состояний очень много. Не буду останавливаться на том, насколько их много.

Я не понимаю, что такое состояние. Точка в фазовом пространстве? Какова типичная размерность этого фазового пространства, например, для автомобиля ВАЗ 2101? А для капли воды?
И ещё, я не понимаю, что такое участок пространства. Я, например, являюсь участком пространства? Допустим, да. Следующий вопрос: я являюсь сегодня с утра одним и тем же участком пространства или каждую пикосекунду я являюсь разными участками пространства?

sto>Отвлечемся ненадолго. Что такое информация для человека, в простом и житейском смысле этого слова? Это то, что можно вспомнить или воспринять.

sto>Она храниться и обрабатывается в мозгу человека, который сам по себе может считаться "участком пространства с состоянием", и его состояние и отражает ту информацию, которая в нем храниться.

Говоря о состоянии, обычно добавляют "в момент времени t". Обработка информации в мозгу производится с помощью химических реакций. Типичное время химического взаимодействия, если не ошибаюсь, фемтосекунды (10 в минус 15-й секунд). Какое расстояние проходит свет за фемтосекунду? 3 на десять в минус 7-й метра. То есть триста нанометров. Вот на таких масштабах и существует "момент времени t" в случае рассмотрения фемтосекундных процессов. Одновременность — понятие относительное. Так что "состояние мозга" — фикция. Его единого не существует. "Сфотографировать" состояние мозга нам запрещает не только отсутствие столь тонкой и мощной технологии, но и более суровая штука — специальная теория относительности.

sto>Информация поступает в мозг по каналам восприятия, на которые в свою очередь воздействуют вполне материальные объекты — электромагнитные колебания, температура и т.п.

sto>То есть информация распространяется материальными объектами, что очевидно и банально.

Согласен. У меня это написано в утверждении №3 ("Информация не существует без физического носителя").

sto>Информация существует как состояние материального объекта- сигнала, устройства хранения и т.п.


Стоп. Что такое состояние? Можно ли его рассматривать как точку в фазовом пространстве?
Да, кстати, а что такое "объект". Камень — объект? Собака — объект? Вода в реке — объект? Рябь на поверхности воды в реке — объект? 67-й километр МКАД — объект? Квадратный сантиметр асфальта на 67-м километре МКАД — объект?
Я, который есть сейчас и тот я, каким я был 20 лет назад — один и тот же объект? То, что из тех атомов, из которых я тогда состоял, более-менее на месте остались только те, которые в зубных пломбах — это не мешает меня считать одним и тем же объектом?

sto>Любое ли состояние является информацией? Или же состояние вовсе не является информацией?

sto>Ответа на этот вопрос однозначно, конечно же, дать нельзя из-за самой неопределенности термина.

Не любое состояние является информацией. Я бы даже сказал, что состояние чего-то никакого отношения к информации не имеет вообще.
Берём например, вполне конкретную информацию — формулировку третьего закона Ньютона. "Тела попарно действуют друг на друга с силами, имеющими одинаковую природу, направленными вдоль прямой, соединяющей центры масс этих тел, равными по модулю и противоположными по направлению". Информация? Определённо, да. Не зная этой информации, пятёрку по физике фиг получишь. Школьник обязан выучить эту информацию.
А теперь ответьте мне плиз, состоянием чего является эта информация? Вселенной? Ну-ну...

sto>Поэтому продолжим наблюдения. Итак: передача информации — это изменение состояния при взаимодействии.


При передаче есть передатчик и приёмник, так? Которые являются так называемыми объектами и у них есть так называемые состояния, так?
Легко можно придумать пример, когда при передаче информации состояние передатчика не изменяется. Допустим, мы передаём один бит информации (явка провалена / явка не провалена) при помощи изменения состояния некоего объекта (цветка). Для передачи информации "явка провалена" нужно изменить состояние передатчика, а для передачи информации "явка не провалена" нужно просто оставить состояние передатчика прежним.
ОК, при передаче информации изменяется не состояние передатчика, а состояние приёмника. Что нам даёт это утверждение? Да ничего не даёт. Состояния чего угодно изменяются как угодно непрерывно. Земля летит вокруг Солнца — её состояние изменяется? Определённо, да. Ну и что? Где информация? Взаимодействие есть, изменение состояния — тоже, передачи информации нет. Иначе нам пришлось бы признать, что чем больше земля вращается вокруг Солнца, тем больше она набирается опыта в этом многотрудном деле. Чистое безумие.

sto>Опять вернемся к мозгу человека. Человек воспринимает окружающую реальность лишь частично.

sto>...
sto>Во всем потоке выделятся микроскопическая доля состояния, которая и важна для человека. Что же делает ее важной?
sto>Закономерность. Повторяемость.

Дулечки. То, что изо дня в день на протяжении многих лет повторяется — менее всего интересно. Вот когда что-то радикально меняется неожиданным образом — вот это да, это суперская информация.

sto>Важно то, что функция закономерности имеет "КПД < 1", она деструктивна по сути.


Ага. Это у меня написано в утверждении №8 ("Вычисление не увеличивает количество информации")
Но никакими квантовыми принципами это не обусловлено. Это обусловлено особенностями сугубо абстрактной штуки, называемой "вычисление".

sto>Есть ли информация в нерасшифрованных иероглифах? Безусловно, потому что в них есть закономерность.


Найденная закономерность — это информация о том, что вот здесь, на этих дощечках, наверняка кто-то что-то написал. И, возможно, было бы нелишне как-нибудь исхитриться и это прочесть. Но пока нет информации о том, как понимать этот сигнал (нет контекста), информация не может быть из сигнала извлечена.

sto>Есть ли информация в камне? Безусловно, более того, в камне ее очень и очень много.


Камень, как и всякая материальная штука, может быть сигналом, если есть соответствующий контекст. Например, камень может нести в себе такую информацию: "Дворники, сволочи, совсем обленились".
Re: Статья: Как найти "информацию"
От: skeptic  
Дата: 22.03.10 16:18
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, уважаемые,


V>Некоторое время назад мы здесь много и весьма интересно рассуждали о природе информации.

V>В качестве "продолжения банкета" предлагаю вам свою статью Как найти "информацию".

V>Если можно, маленькая просьба. Если у кого-то есть знакомые, профессионально занимающиеся этой тематикой (философия информации, философия, теоретическая информатика и т.п.), очень бы мне хотелось на них выйти.

V>Чтобы порка была произведена профессионально

Что то подобное помню у нас в НГТУ рассматривалось в рамках курса Концептуальные Основы Информатики (КОИ).
Этот предмет даже по моему наш декан придумал(по слухам) ну и преподавал тоже.
Курс был полугодовой, представлял из себя жуткий теоретический венегрет и
предназначен был сугубо для потроллить юных перваков, ну и для детекта
психически неуравновешенных личностей с одного полюса и закомплексованных склонных к шизофрении ботанов с другого.
На память я себе даже методички оставил по этому предмету — уверен что в них закодировано послание от внеземных цивилизаций...
Вообщем вот как то так, не воспринимайте слишком серьёзно =)
Re[2]: Статья: Как найти "информацию"
От: shks57  
Дата: 22.03.10 19:30
Оценка:
Здравствуйте, sto, Вы писали:

sto>Здравствуйте, Voblin, Вы писали:


V>>Здравствуйте, уважаемые,


V>>Некоторое время назад мы здесь много и весьма интересно рассуждали о природе информации.

V>>В качестве "продолжения банкета" предлагаю вам свою статью Как найти "информацию".

Хорошая статья. Вот что бывает когда нормальный философ немного поработает над нашей темой.
Для технаря информация это то что можно измерить в битах. То что свищет, щелкает, звенит он называет сигналом.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.03.10 15:46
Оценка: 6 (1)
Здравствуйте, skeptic, Вы писали:

S>Что то подобное помню у нас в НГТУ рассматривалось в рамках курса Концептуальные Основы Информатики (КОИ).

S>Этот предмет даже по моему наш декан придумал(по слухам) ну и преподавал тоже.
S>...
S>На память я себе даже методички оставил по этому предмету — уверен что в них закодировано послание от внеземных цивилизаций...

Сначала было рука дёрнулась попросить посмотреть. Но мне удалось обуздать свой хватательный рефлекс т.к. обычно на эту тему пишут такую несусветную околесицу, что крышу приходится держать двумя руками.

Недавно вот довелось почитать книжку (осилил до половины, борясь с рвотными позывами) одного уважаемого товарища, который пытался за уши притащить "информацию" в марксистско-ленинский диалектический материализьм. Короче, острый приступ мизантропии был успешно купирован Джером К. Джеромом.
Re[3]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.03.10 15:52
Оценка:
Здравствуйте, shks57, Вы писали:

S>Хорошая статья. Вот что бывает когда нормальный философ немного поработает над нашей темой.


Спасибо за добрые слова.
Однако до "нормального философа" мне ещё надо скушать сто пудов геркулеса. Ибо тёмен страшно

S>Для технаря информация это то что можно измерить в битах. То что свищет, щелкает, звенит он называет сигналом.


Мы и вес меряем килограммами, хотя знаем, что это неправильно
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.