Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 10:36
Оценка: 48 (7) +1
С удивлением обнаружил, что не смотря на то, что вспахиваю ниву информационных технологий, о самом понятии "информация" имею довольно мутные представления. Самое печальное, что попытки найти внятную литературу по этой теме пока успехом не увенчались.

Ситуация выглядит весьма забавно. Мы научились искать, воспринимать, перерабатывать, копировать, накапливать, использовать информацию. Довольно часто у нас получается уничтожать информацию. Худо-бедно научились измерять её количество (либо тупо через потребную ёмкость канала, в битах, либо более точно, через колмогоровскую сложность). Не понятно, можем ли мы создавать информацию, но об этом позже. А вот о том, что это собственно такое — информация и каковы её свойства — полные непонятки.

У информации весьма сложные взаимоотношения с объективной реальностью. С одной стороны, бывает так, что информация объективно существует, и бывает так, что она объективно не существует. Например, я твёрдо уверен, что существует информация, называемая "А.С.Пушкин. Повести Белкина.", хотя, к своему стыду, в свой мозг через органы чувств я её не впитывал. Я могу купить эту книжку сегодня, могу — завтра, могу скачать её из Интернета, могу прослушать аудиокнигу. В любом случае, это будет один и тот же текст. Потому что этот текст когда-то был написан и сумел до нас дойти через множество материальных носителей в неизменном виде. А вот информации "А.С.Пушкин. Повести Грелкина." не существует. Объективно не существует. И даже бесполезно пытаться её найти.

Несмотря на то, что, казалось бы, информация может объективно существовать, объективность её существования — под большим вопросом. Например, существуют ли тексты, написанные на ронго-ронго? Таблички есть. Неровности на этих табличках тоже есть. Извлечь информацию, сохранённую когда-то в этих неровностях, пока не удалось. И не факт, что когда-либо удастся. Т.е. существование информационного объекта зависит от того, существует ли объект или субъект, который может её воспринять.

Считается, что при копировании информации её количество не изменяется. Считается, что обработка информации не увеличивает её количества. Информация может исчезать (те, кто кусал себе локти, не сделав вовремя бэкап, меня поймут). Вопрос: откуда информация берётся, если не существует операций, увеличивающих количество информации, зато есть масса обстоятельств, при которых она исчезает? Или всё-таки существуют явления, увеличивающие количество информации? Кто-то может сказать, что первичный информационный поток порождается квантовыми явлениями и радиоактивным распадом. Но ведь даже если бы мир был устроен строго механистично, в нём что, кончилась бы информация?

В привычной шенноновской триаде "передатчик -> канал -> приёмник" тоже что-то не так. Полярная звезда, тупо разбрасывая вокруг себя кванты электромагнитной энергии, не посылает путешественникам информацию о том, где находится север. То есть в передатчике информации вроде бы и нет, но приёмник её получает. При этом сам её, заметьте, не создаёт.

Понятие количества информации — это вообще та ещё сказка. Количество информации хоть и может быть выражено числом, но оно не аддитивно. Например, берём zip-файлы размером 100 и 50КБ, сжимаем их двоих, и получаем 120КБ. Бывает так, что информационный объект помещается сам в себя целиком, и даже остаётся место для какой-нибудь ерунды (которая тоже оказывается бесконечное количество раз рекурсивно включена в состав этого объекта).

В общем случае информационные объекты нельзя точно локализовать ни в пространстве, ни во времени. Возьмём, например, такой объект как "причины увеличения курса доллара". Нормальный такой инфообъект. Где он находится? И когда?

Может быть, "информация" — это целиком и полностью искусственное понятие, и рассуждать о его свойствах — это не многим лучше чем спорить о количестве демонов, помещающихся на кончике иглы? Однако, похоже, что сама суть понятия "информация" прошита куда-то вглубь структуры пространства-времени:
1. Есть мнение, что скорость света в вакууме ограничена именно скоростью распространения информации. Если бы информация распространялась мгновенно, изменение электрического поля по известным уравнениям Максвелла мгновенно порождало бы изменение магнитного поля во всей Вселенной, и никаких электромагнитных волн не возникало бы в принципе.
2. Что бы нам ни говорили полубезумные провидцы, ось времени, по которой мы все путешествуем — это именно тот вектор, по которому движется информация. И в обратную сторону не ходит. По крайней мере, в воспроизводимых экспериментах.

Оставаясь в рамках позитивной науки, можно с некоторой долей уверенности выделить следующие свойства информации:
1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии. Если это принять, то все паранаучные рассуждения об информационном поле, глобальном информационном континууме и прочая муть сразу становятся ложными. Более того, фраза "В начале было Слово" сразу порождает еретический вопрос: "На чём было записано это Слово?".
2. Из точки А информация не может поступить в точку Б если между ними нет информационного канала. Если принять п.1, то это должен быть перенос либо вещества, либо энергии. Т.е. прорицатель должен принимать вещество или энергию, движущиеся в обратном направлении по оси времени.

Какие ещё у информации есть свойства? Что на эту тему можно вкурить?

P.S. Только попробуйте сказать, что это не имеет отношения к философии программирования!
Re: Несколько дурацких вопросов по теории информации
От: Васильич  
Дата: 19.01.09 11:36
Оценка: 9 (2) +2 -4
Здравствуйте, Voblin, Вы писали:

V>Ситуация выглядит весьма забавно. Мы научились искать, воспринимать, перерабатывать, копировать, накапливать, использовать информацию. Довольно часто у нас получается уничтожать информацию. Худо-бедно научились измерять её количество (либо тупо через потребную ёмкость канала, в битах, либо более точно, через колмогоровскую сложность). Не понятно, можем ли мы создавать информацию, но об этом позже. А вот о том, что это собственно такое — информация и каковы её свойства — полные непонятки.


Точно так же, как мы умеем работать со временем, с электрическим и магнитным полями, но при этом мало кто сможет обьяснить что же это такое

V>Считается, что при копировании информации её количество не изменяется. Считается, что обработка информации не увеличивает её количества. Информация может исчезать (те, кто кусал себе локти, не сделав вовремя бэкап, меня поймут). Вопрос: откуда информация берётся, если не существует операций, увеличивающих количество информации, зато есть масса обстоятельств, при которых она исчезает? Или всё-таки существуют явления, увеличивающие количество информации? Кто-то может сказать, что первичный информационный поток порождается квантовыми явлениями и радиоактивным распадом. Но ведь даже если бы мир был устроен строго механистично, в нём что, кончилась бы информация?


Попытаюсь рассказывать в духе "занимательной физики", пусть не очень строго и не всегда по Шеннону и не всегда строгими терминами:
Информация не есть самостоятельная характеристика объекта. Взамен ее есть энтропия. Информационная энтропия — мера неопределенности знаний субъекта об окружающем его мире. Эсли энтропия равна нулю — субъект обладает идеальным знанием обо всем окружающем. Если энтропия равна бесконечности — субъект не знает об окружающем его мире ровным счетом ничего. Информация есть мера изменения энтропии субъекта. Если провести аналогии с физикой, то энтропия — это энергия, а информация — работа.

Из всего этого, я бы поставил под сомнение почти все вопросы из отцитированного абзаца. Информация не может исчезать, так как ее просто нет. Точно так же она не может и появляться. Может меняться лишь энтропия субъекта, причем в любую сторону. Информация не может появляться сама по себе в абсолюте, так как она всегда привязана к субъекту, точнее к его энтропии. Тексты ронго-ронго не несут для нас никакой информации, потому что не меняют нашу энтропию. Зато они несут информацию для тех, кто хоть немного владеет этим видом письменности.

Кстати, энтропия — тоже не абсолютное понятие. Не думаю, что можно сказать, что Вселенная содержит в себе ровно N бит энтропии. И чтобы ты стал богом — достаточно передать тебе эти N бит. Скорее энтропия характеризует не вселенную, а именно мыслящий объект. То есть, нет никакого первичного информационного потока, есть лишь осмысливающие его субъекты.

И еще одно наблюдение. Если оставить субъекта без источника информации — это не означает что его энтропия будет оставаться на постоянном уровне. Она будет постоянно повышаться. Тут можно опять привести аналогию с термодинамикой, где два объекта всегда будут стремиться к термодинамическому равновесию. Если мы возьмем вселенную, энтропия которой стремится к бесконечности и субъекта с некоторым конечным уровнем энтропии — то они тоже будут стремиться к равновесию, а именно будет повышаться уровень энтропии субъекта.

V>В привычной шенноновской триаде "передатчик -> канал -> приёмник" тоже что-то не так. Полярная звезда, тупо разбрасывая вокруг себя кванты электромагнитной энергии, не посылает путешественникам информацию о том, где находится север. То есть в передатчике информации вроде бы и нет, но приёмник её получает. При этом сам её, заметьте, не создаёт.


Вот и пример того, что информации в физическом мире нет вообще. Если кто-то смог сопоставить тот факт, что Полярная звезда и направление на север связаны — для него эти кванты уже несут информации. Для других — не несут ровным счетом ничего. Если бы информация была абсолютным понятием.. хых.. открывались бы воистину бездонные перспективы

V>В общем случае информационные объекты нельзя точно локализовать ни в пространстве, ни во времени. Возьмём, например, такой объект как "причины увеличения курса доллара". Нормальный такой инфообъект. Где он находится? И когда?


Только в наших головах

V>Может быть, "информация" — это целиком и полностью искусственное понятие, и рассуждать о его свойствах — это не многим лучше чем спорить о количестве демонов, помещающихся на кончике иглы? Однако, похоже, что сама суть понятия "информация" прошита куда-то вглубь структуры пространства-времени:

V>1. Есть мнение, что скорость света в вакууме ограничена именно скоростью распространения информации. Если бы информация распространялась мгновенно, изменение электрического поля по известным уравнениям Максвелла мгновенно порождало бы изменение магнитного поля во всей Вселенной, и никаких электромагнитных волн не возникало бы в принципе.

Скорее скорость света ограничивает скорость распространения информации

Написав это все, подумал — нет, информация это не искусственное понятие. Парралели с физикой, сопоставление с известными нам величинами говорит о том, что эти понятия вполне могут существовать (быть предусмотренными) в структуре нашей вселенной. Только характеризуют они не физические свойства объектов, а ту самую непознанную область, которую мы называем "мышлением", и применимы только к тем объектам, у которых прописан custom attribute [MindEnabled]
Re: Несколько дурацких вопросов по теории информации
От: VladD2 Российская Империя www.nemerle.org
Дата: 19.01.09 23:24
Оценка: :))) :))) :)
Здравствуйте, Voblin, Вы писали:

V>А вот информации "А.С.Пушкин. Повести Грелкина." не существует. Объективно не существует. И даже бесполезно пытаться её найти.


Уже существует и неплохо ищется здесь

Так что стоит только захотеть и любая информация найдется.
Есть логика намерений и логика обстоятельств, последняя всегда сильнее.
Re: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 19.01.09 16:24
Оценка: 64 (2) +1
Я когда-то увлекся темой сжатия данных (небезрезультатно) и довольно много времени вопросу информации посвятил, книжек прочел и дум передумал. Могу сказать, что Васильич тут дело говорит, советую прислушаться.

Информацию почти всегда можно считать синонимом негэнтропии, т.е. информация есть уменьшение неопределенности. Если мне сообщат, что президентом России последние несколько месяцев был некто Медведев, это сообщит мне ровно 0 бит информации, несмотря на то, что само сообщение может занимать кучу мегабайт (например, в виде записи ТВ сигнала). Именно поэтому информация кажется неаддитивной — если в двух файлах есть общая информация (например, что после q чащи идет u, а после tio — n), то в одном архиве они займут меньше места — для архиватора во втором файле меньше информации, чем если бы он сжимался отдельно, т.к. часть информации архиватор уже "знает" из первого файла.

Формула для энтропии неслучайно очень похоже выглядит в казалось бы разных областях — в теории информации, в квантах и в термодинамике. Она во всех этих случаях описывает меру нашего незнания о системе. И связь информации с вероятностями совершенно логична: вероятности используются для описания систем и событий, где мы не знаем точного состояния. Чем больше перекос вероятностей, тем больше знаний о системе у нас есть, тем меньше энтропия (в вырожденном случае, когда вероятность одного события 100%, а остальных — 0, энтропия равна 0, нет неопределенности).

В этом свете второй закон термодинамики совершенно очевиден — если с течением времени в системе происходят сложные (не известные нам с абсолютной точностью) процессы, степень нашего незнания о системе растет, т.е. растет энтропия.

Из занимательной литературы на эту тему есть как минимум Пенроуз и книжка "Динамика и информация" (забыл авторов). Рекомендую также курить кванты, описание квантовой энтропии и вопросов измерения (коллапс волновой функции, декогеренция и т.п.).
Re: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 19.01.09 15:52
Оценка: 11 (2) :)
Здравствуйте, Voblin, Вы писали:

И я спрошу кое-что: создают ли математики информацию во время своей работы? Или может быть, они извлекают ее откуда-то? И где она была до этого?
Re: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 21.01.09 07:42
Оценка: 10 (2) -1
Здравствуйте, Voblin, Вы писали:

V>С удивлением обнаружил, что не смотря на то, что вспахиваю ниву информационных технологий, о самом понятии "информация" имею довольно мутные представления. Самое печальное, что попытки найти внятную литературу по этой теме пока успехом не увенчались.


V>Ситуация выглядит весьма забавно. Мы научились искать, воспринимать, перерабатывать, копировать, накапливать, использовать информацию. Довольно часто у нас получается уничтожать информацию. Худо-бедно научились измерять её количество (либо тупо через потребную ёмкость канала, в битах, либо более точно, через колмогоровскую сложность). Не понятно, можем ли мы создавать информацию, но об этом позже. А вот о том, что это собственно такое — информация и каковы её свойства — полные непонятки.


Объективно информация не существует. Информация субъективна. Информация это свойство живой материи иметь представление и понятие о чем-либо. Информация это то, что создается в живой материи при отражении объективного мира и аккомодации.

V>У информации весьма сложные взаимоотношения с объективной реальностью. С одной стороны, бывает так, что информация объективно существует, и бывает так, что она объективно не существует. Например, я твёрдо уверен, что существует информация, называемая "А.С.Пушкин. Повести Белкина.", хотя, к своему стыду, в свой мозг через органы чувств я её не впитывал. Я могу купить эту книжку сегодня, могу — завтра, могу скачать её из Интернета, могу прослушать аудиокнигу. В любом случае, это будет один и тот же текст. Потому что этот текст когда-то был написан и сумел до нас дойти через множество материальных носителей в неизменном виде. А вот информации "А.С.Пушкин. Повести Грелкина." не существует. Объективно не существует. И даже бесполезно пытаться её найти.


То, что мы научились «перерабатывать, копировать, накапливать, использовать» и проч., это данные – информация, объективизированная при помощи знаковых (сигнальных) систем.

V>Несмотря на то, что, казалось бы, информация может объективно существовать, объективность её существования — под большим вопросом. Например, существуют ли тексты, написанные на ронго-ронго? Таблички есть. Неровности на этих табличках тоже есть. Извлечь информацию, сохранённую когда-то в этих неровностях, пока не удалось. И не факт, что когда-либо удастся. Т.е. существование информационного объекта зависит от того, существует ли объект или субъект, который может её воспринять.


Информация может передаваться только от одного живого субъекта к другому. При передаче информации работает схема: Информация 1 – Передатчик – Данные 1 – Канал передачи – Данные 2 – Приемник – Информация 2. Если приемник «работает на длинных волнах» а передатчик «на коротких», то Информация 2 = пусто, даже если остальная часть цепочки идеальна.

V>Считается, что при копировании информации её количество не изменяется. Считается, что обработка информации не увеличивает её количества. Информация может исчезать (те, кто кусал себе локти, не сделав вовремя бэкап, меня поймут). Вопрос: откуда информация берётся, если не существует операций, увеличивающих количество информации, зато есть масса обстоятельств, при которых она исчезает? Или всё-таки существуют явления, увеличивающие количество информации? Кто-то может сказать, что первичный информационный поток порождается квантовыми явлениями и радиоактивным распадом. Но ведь даже если бы мир был устроен строго механистично, в нём что, кончилась бы информация?


Источник и хранилище информации — живая материя. Как и каким местом она ее порождает — никто не знает. Вне субъекта информация не существует. Могут существовать только данные.

V>В привычной шенноновской триаде "передатчик -> канал -> приёмник" тоже что-то не так. Полярная звезда, тупо разбрасывая вокруг себя кванты электромагнитной энергии, не посылает путешественникам информацию о том, где находится север. То есть в передатчике информации вроде бы и нет, но приёмник её получает. При этом сам её, заметьте, не создаёт.


Полярная звезда – это знак, указывающий на Север, который оставил Бог или большой взрыв, кому как нравится. Информация уже находится у человека, который понимает (сам догадался в результате познавательной деятельности, или кто подсказал) этот знак. А если не понимает => информация = пусто. Аналогичные ситуации: лишайник с северной стороны дерева, следы животного на песке или любое другое явление объективной реальности, которое конкретный субъект может отразить и понять.

V>Понятие количества информации — это вообще та ещё сказка. Количество информации хоть и может быть выражено числом, но оно не аддитивно. Например, берём zip-файлы размером 100 и 50КБ, сжимаем их двоих, и получаем 120КБ. Бывает так, что информационный объект помещается сам в себя целиком, и даже остаётся место для какой-нибудь ерунды (которая тоже оказывается бесконечное количество раз рекурсивно включена в состав этого объекта).


У информации нет количества потому, что это «не материя и не энергия» ( (с) Винер). А ничего другого мы измерять не умеем. Все, что мы пытаемся измерять, это лишь количество данных. Бессмысленно измерять информацию, заложенную в картине художника, площадью и количеством использованных цветов.

V>В общем случае информационные объекты нельзя точно локализовать ни в пространстве, ни во времени. Возьмём, например, такой объект как "причины увеличения курса доллара". Нормальный такой инфообъект. Где он находится? И когда?


V>Может быть, "информация" — это целиком и полностью искусственное понятие, и рассуждать о его свойствах — это не многим лучше чем спорить о количестве демонов, помещающихся на кончике иглы? Однако, похоже, что сама суть понятия "информация" прошита куда-то вглубь структуры пространства-времени:

V>1. Есть мнение, что скорость света в вакууме ограничена именно скоростью распространения информации. Если бы информация распространялась мгновенно, изменение электрического поля по известным уравнениям Максвелла мгновенно порождало бы изменение магнитного поля во всей Вселенной, и никаких электромагнитных волн не возникало бы в принципе.
V>2. Что бы нам ни говорили полубезумные провидцы, ось времени, по которой мы все путешествуем — это именно тот вектор, по которому движется информация. И в обратную сторону не ходит. По крайней мере, в воспроизводимых экспериментах.

V>Оставаясь в рамках позитивной науки, можно с некоторой долей уверенности выделить следующие свойства информации:

V>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии. Если это принять, то все паранаучные рассуждения об информационном поле, глобальном информационном континууме и прочая муть сразу становятся ложными. Более того, фраза "В начале было Слово" сразу порождает еретический вопрос: "На чём было записано это Слово?".
V>2. Из точки А информация не может поступить в точку Б если между ними нет информационного канала. Если принять п.1, то это должен быть перенос либо вещества, либо энергии. Т.е. прорицатель должен принимать вещество или энергию, движущиеся в обратном направлении по оси времени.

Согласно Канту, время лишь форма мышления, данная нам априори, и к объективной реальности отношения не имеет. Может это и не так, но все другие определения времени, мне лично нравятся еще меньше. . Поэтому время, а так же пространство, следует рассматривать как свойства информации.

V>Какие ещё у информации есть свойства? Что на эту тему можно вкурить?


Еще немного ИМХО о информации здесь
Автор: craft-brother
Дата: 18.08.06
.


V>P.S. Только попробуйте сказать, что это не имеет отношения к философии программирования!


Вот в этом месте Вы совершенно правы!
+1024

Re[4]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 10:39
Оценка: +2 :)
Здравствуйте, Tilir, Вы писали:

T>Более того. Возьмём число pi. Которое 3.1415926... Надеюсь вы не будете спорить что в его полной записи в двоичном виде содержится ваша полная биография в формате txt, включая всё ваше прошлое и будущее. Вы просто не знаете с какого знака читать. И где тут материальный носитель на котором должна придти эта информация? Задумайтесь: всё ваше резюме можно отсылать работодателю просто как номер знака pi с которого оно начинается. И вся вот эта наша с вами дискуссия тоже там.


Пока у меня есть только алгоритм вычисления числа pi до любого наперёд заданного знака, у меня нет никакой информации о моём личном будущем. Допустим, я решил погадать на числе pi таким вот извратным методом:
1. Написал (в формате txt) свою автобиографию.
2. Генерирую знаки числа pi, и в этой последовательности ищу написанный в п.1 txt-шник. Как только нашёл, с замиранием сердца читаю продолжение.

Первая попытка наверняка будет неудачной. В продолжении — кракозябры и бессмыслица. Но я не отчаиваюсь. Ищу такие вхождения, чтобы их продолжение было написано человеческим языком. В какой-то момент мне это удаётся! Ух ты, я стану королём Сиама! Класс! Здесь бы мне остановиться, но я забыл остановить процесс поиска, и получаю в результате ещё кучу предсказаний о том, что завтра меня переедет грузовик, что через год я стану женщиной и у меня родится десять сыновей, что я превращусь в Ктулха и всех зохаваю, и т.д.
Блин, да в этом проклятом числе pi содержатся все возможные и невозможные варианты моего будущего! Какой выбрать? Скажите номер!
На смертном одре, дописав свою автобиографию, я таки вычисляю правильный номер. И с удивлением вижу, что длина этого номера (в килобайтах) оказывается по порядку величины вполне сопоставима с длиной моей автобиографии в формате txt.
Re[10]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.03.09 16:09
Оценка: 10 (2)
Здравствуйте, Курилка, Вы писали:

К>Речь лишь о нематериальном, не являющимся функцией сознания, твои примеры по-моему "не катят".


Восстанавливаем последовательность рассуждений:
Слесарь> Я лишь сказал, что информация(истинно) это абстракция из сферы сознания, а не из сферы материального мира
Voblin> Всё правильно. Только, наверно, не из сферы сознания, а из сферы нематериального.
Курилка> У тебя есть примеры нематериального, не являющегося функцией сознания?
Так... Ищем примеры того, что нематериально, но либо не является продуктом сознания либо существует независимо от того, существует в этом мире сознание или нет.

Если под термином "материальный" понимать то, что "существует независимо от нашего сознания и знания о нём", то по определению у нас получается, что всё, что нематериально, существует зависимо от нашего сознания. Из этого напрямую следует, что я не могу привести примеры нематериального, не являющегося функцией моего сознания просто потому, что таких объектов по определению не существует.

Рассмотрим несколько материальных объектов, которые... как-то странно материальны:
1. Твоё сознание. Оно не является функцией моего сознания, и поэтому оно для меня материально.
2. Моё сознание. Оно, конечно, в некоторой своей части self-made, но не целиком, и поэтому оно для меня тоже материально.
3. Математика. Да и вообще все законы природы. Учёные не придумывают законы природы, а открывают их. Более того, они очень заботятся о том, чтобы открытый закон был объективной реальностью, а не артефактом.

Платон считал, что кроме материального (в смысле вещественного) мира есть объективно существующий (материальный?) мир идей. Эта мысль вот уж более чем две тысячи лет всячески оспаривается, но, тем не менее, рациональное зерно в ней определённо есть. Если отринуть всю мистику, то действительно получается, что есть конкретные предметы и события, а есть как-бы немножко существующие "ни там, ни сям" классы предметов и законы природы.
Материальна ли теорема Пифагора? Материальна ли иррациональность числа pi? Материальна ли эллиптичность орбит планет? Материальны ли "Повести Белкина"? Определённо да, всё это материально. А может быть, что-то из этого нематериально? Ну да, всё это заодно и нематериально. Что из этого является продуктом сознания? Пожалуй, только "Повести Белкина".

Расскажу, почему я взбеленился против того, что информация является абстракцией из сферы сознания. Если для рассмотрения всех вопросов, касающихся природы информации нам нужно привлекать "сферу сознания", то и такое сугубо информационное явление как сознание нужно описывать через его же самого. Мне кажется, это немножко дурацкая затея. Более осмысленным мне кажется утверждение, что сознание — это явление из информационной сферы. Насколько оно истинно — отдельный вопрос, но смысла в нём определённо больше.

Кроме того, в этой фразе я унюхал запашок антропоцентризма, который я считаю одним из самых сильных ядов, убивающих мысль.
Вообще для меня не удивительно, что программисты в своей массе являются весьма жёсткими антропоцентристами. Во-первых, мы чётко знаем почём фунт изюма в обработке информации, и что дистанция между компьютером и мозгом напролом не проходима. Во-вторых, все мы по 10-12 часов день являемся демиургами своих маленьких вселенных, и поэтому для нас мысль о том, что разум всесилен, не является очевидно абсурдной.
Re[6]: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 20.01.09 10:19
Оценка: 9 (1) +1
Здравствуйте, Tilir, Вы писали:

T>Здравствуйте, nikov, Вы писали:


N>>Однако не составляет труда придумать число, в котором эта информация содержится.


T>Не "придумать", а найти. Меня эти мысли всегда приводили в состояние близкое к "страху Божию", хоть я и неверующий. Вместе со Вселенной нам дана как в руководстве по эксплуатации вся информация о ней, причём безо всякого материального носителя любое иррациональное число это и есть изумрудная скрижаль, хроники Акаши, где всё прошлое и всё будущее.


А что здесь искать? Возьмем Champernowne number, у которого после десятичной точки выписаны подряд все натуральные числа. Ясно, что рано или поздно найдется любая требуемая последовательность. Не вижу, где здесь место для священного трепета.

А для числа Пи даже не доказано, что каждая десятичная цифра встречается бесконечное число раз в его разложении, не говоря уже о его нормальности.
Re[9]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 19.01.09 18:05
Оценка: :))
Здравствуйте, Voblin, Вы писали:

DM>>Скажете, это не новая информация? Тогда, если подумать, новой информации вообще не существует, она вся "старая".


V>Вынужден огорчить, но она вся старая. Допустим, я использовал это число как пароль для защиты файла. Передаю другу файл и говорю ему пароль: "10001-е по счету простое число". Всё, друг сможет прочитать файл потому что пароль я ему сообщил. Немножко садистским образом, но всё же сообщил.


Хорошо, а если я сообщаю ему пароль так: "первое n, для которого hailstone sequence не сходится к единице"? Можно ли сказать, что то, что он смог воспользоваться паролем, не содержит новой информации?
Re[13]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 20.01.09 13:43
Оценка: +2
Здравствуйте, Voblin, Вы писали:

V>Кстати, определения понятий "состояние" и "информация" можно попытаться рекурсивно завязать друг на друга. Получится красиво.


Поздравляю, в результате долгой дискуссии вы близки к рождению классического определения информации, как логарифма количества состояний (равновозможных, в противном случае можно слегка поднормировать на вероятности).
Re[12]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 26.01.09 14:41
Оценка: 58 (1)
Здравствуйте, craft-brother, Вы писали:

CB>[...]

CB>Что-то похожее описывает А.Пуанкаре в работе «Математическое творчество», проводя самоанализ решения математической задачи.

Вообще, интроспекция считается не очень хорошим методом исследования работы мозга.
Дело, в частности, в том, что речевой механизм (зона Брока и зона Вернике) не имеет непосредственных связей со всеми без исключения остальными структурами. Соответственно, есть масса мыслительных процессов, которые мы не можем выразить словами. Кора больших полушарий, где, предположительно, сидит сознание, тоже не на всё завязана. Бывает, что в процесс решения задачи втягиваются механизмы, функционально далёкие от коры больших полушарий. При интенсивном размышлении мозг выстраивает множество ассоциативных цепочек, часть из которых может проходить через зрительный центр (например, представляем себе систему ограничения доступа в виде злобного цепного пса, брызжущего слюной), часть — через слуховой отдел, часть — через древнейшую обонятельную луковицу. Большинство этих цепочек оказываются полной ерундой и только отвлекают внимание, но некоторые из них оказываются вполне в тему. В самом деле, задействовать для анализа логической стройности умозаключений мощнейший (хоть и слабоконтролируемый) аппарат, в штатном режиме отвечающий за пространственную ориентацию, может оказаться очень даже полезно.

Вот и получается, что иногда одного взгляда на структуру базы данных бывает достаточно, чтобы определить, что она жёстко денормализована. Интуиция? Можно назвать и так. Но на самом деле оказывается, что за долгие годы накопления опыта на предварительный анализ корректности структуры БД у человека натренировался какой-то механизм, который сразу выдаёт сигнал "Внимание! Здесь полная фигня!". А у всех остальных людей этот механизм умеет работать только по своему прямому назначению — (предположительно, не знаю...) избегать проблем в межличностном общении.

CB>В 5 лет у Моцарта не было накоплено никаких знаний для того, чтобы создавать гениальные музыкальные произведения.


К пяти годам все умственно полноценные детки умеют выражать свои чувства не только словами, но и интонациями. А музыка — это концентрированная интонация. Юный Моцарт научился одними интонациями (без использования слов) выражать свои мысли и чувства. И ещё его научили воспроизводить эти интонации не голосом, а клавишами на клавесине.

CB>Поэтому граница между мышлением и машиной лежит там, где кончается логическое мышление и начинается образное.


Образ — это тоже информационная сущность, которую, как и всякую инф. сущность, тоже можно как-то закодировать и скормить некоему вычислителю, заточенному под операции с "образной арифметикой". Почему нет?
Re[8]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.03.09 10:10
Оценка: 30 (1)
Здравствуйте, Курилка, Вы писали:

К>У тебя есть примеры нематериального, не являющегося функцией сознания?


Два примера из совсем разных областей:

1. Экосистема леса. Странная такая сущность, которая с одной стороны обладает некоторыми свойствами информации (нечёткая локализация в пространстве/времени, субъективность), но при этом сама по себе информацией не является. Не является функцией сознания (т.е. нельзя найти того, кто создал её сознательно). Тем не менее она существует и её свойства, знаем мы о них или нет, оказывают сильнейшее влияние на материальные процессы (например, на преобладающую высоту деревьев).

2. Давление Очень забавная чисто искусственная интегральная характеристика, которая, знаем мы о ней или нет, может либо запускать, либо не запускать самоподдерживающуюся термоядерную реакцию.

В скобках замечу, что если мы будем рассматривать упомянутые сущности через механистическую познавательную модель, то мы обнаружим, что они не существуют. Не надо на них смотреть через механистическую ПМ. Это не продуктивно.
Re[15]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 26.03.09 18:54
Оценка: 30 (1)
Здравствуйте, depth, Вы писали:

D>Какие-то ссылки про теорию информации в ее философском аспекте находятся (например, http://www.inftech.webservis.ru/it/information/index.html), но их ценность и положения пока непонятны


Почитал тамошний центральный труд "Информодинамика или путь к Миру открытых систем". Положения остались непонятны, но ценность стала кристально ясна. Ценность практически равна нулю.

Основной вывод из того, что удалось осилить (целиком не смог, уж извините): эта книга высокотоксична.

Авторы, возможно, милые и интеллигентные люди, но за свой титанический труд они заслуживают хорошую порку, которой я сейчас и намерен заняться.

Первая строка книги:

Книга посвящена становлению основ новой науки – информодинамики, науки, изучающей информацию как феномен...

В принципе, на этом можно было бы и закончить чтение потому что заниматься феноменологией информации — на редкость неудачная затея. Ведь что такое феноменология? Читаем в википедии:

Феноменология — термин, используемый в естествознании, в особенности в физике, для обозначения совокупности знаний, определяющих взаимосвязь между различными наблюдениями явлений (феноменов) в соответствии с фундаментальной теорией, но непосредственно из этой теории не следующих.
Феноменология является посредником между экспериментом и теорией. Она более абстрактна и многошагова в своей логике, чем эксперимент, но больше привязана к эксперименту, чем к теории. Границы между теорией и феноменологией размыты и в некоторой степени зависят от уровня понимания и интуиции исследователя. Большинство учёных склоняются к мысли, что феноменологическое описание явления не позволяет понять его, но всё же играет значительную роль в науке.

Т.е. мы описываем проявления исследуемого процесса, исследуем его формы, классифицируем его виды, но когда пытаемся понять суть происходящего, его глубинную основу — это уже не феноменология, а самая что ни на есть фундаментальная теория. Так как информационные явления происходят везде и повсюду и в живых организмах, и в сообществах, и в технике, и... где только не происходят, то "изучение информации как феномена" — это сочинение обо всём подряд и ни о чём конкретно.

Может быть, я слишком строго придираюсь к словам, и книга действительно содержит великие открытия (тем более, что во "введении" они обещаны открытым текстом)? Ладно, возьмём для примера главу 10 "Аксиомы открытого мира". Итак, что у нас с аксиоматикой? 10.1 пропускаем, там общеметодический трёп, ага, 10.2 — "Аксиомы умолчания". Читаем. И что? Где аксиомы? Не сформулировано ни одной. Вскользь в тексте упоминаются "принцип комплементарности, принцип наименьшего действия (он же выступает и как принцип минимума исходных сущностей) и принцип предпочтения наибольших симметрий". Безо всякого раскрытия, что, зачем и почему. Так, догадайтесь сами, раз такие умные. И финалочка:

феномен информации существует как реалия мира.

Спасибо, я как-то сам догадывался...

Его можно воспринять и понять только из той системы посылок, той “системы аксиом” на базе коих устроена сама Вселенная, из процесса ее существования, из того, что уже было в Природе задолго до появления первой формальной теории.

Я бы согласился, если бы вы, мать вашу, удосужились сформулировать хотя бы одну.

Идём дальше. 10.3 — "Соотношение неопределенности — 2". Сильно заявлено. Жаль, в тексте не написано, что же это такое.

10.4 — "Гармонические шкалы" — вообще детский сад. Сначала рассуждаем о всепобеждающей силе музыки, а потом исследуем логарифмическую шкалу, находим её свойства, известные каждому выпускнику-хорошисту средней школы, и впадаем в священный транс в разделе 10.5. Типа нашли всеобщий закон природы. Я бы ещё предложил помолиться на таблицу умножения.

10.6 — "Самоорганизация и структурный резонанс". Какая-то муть на тему того, что если взять мешок навоза и хорошенько потрясти, то может там что-то из "белого шума" и родится.

И это, между прочем, глава, закладывающая теоретический базис великого открытия о природе самоорганизующихся систем, управляющихся и управляемых языками на базе контекстно-зависимых грамматик.

Товарищ, не давай засрать свой мозг. Он у тебя один, и не раз тебе ещё пригодится.

Короче, из этой книжки ничего я не понял. Вообще, это великое счастье — иметь возможность встать и сказать: "Господа, я ни хрена ничего не понял про ваши корчеватели!"

P.S. Если кого обидел, извините меня, старого дурака. Ничего личного.
Re[5]: Несколько дурацких вопросов по теории информации
От: Васильич  
Дата: 20.01.09 14:03
Оценка: 10 (1)
Здравствуйте, D. Mon, Вы писали:

V>>>Антропоцентризм — зло!

V>>>Если мы не будем слишком чванливыми и самодовольными, то обработку информации найдём не только у сиятельного Хомо Сапиенса, но и во всём остальном животном мире. И в растительном мире её можно встретить в каждом изгибе веточки. В конце концов, посмотрите на снежинки — почему они все, как сговорившись, имеют такую странную форму, и не хотят, собаки такие, принимать форму шара, единственную приличествующую объектам неживого мира?

К>>Я склоняюсь к тому, что об информации без субъекта её интерпретирующего (т.е. хомо сапиенса) рассуждать нет никакого смысла.


DM>Для определения (количества) информации нужен субъект, но необязательно субъектом должен быть человек. Мой кот совершенно точно воспринимает информацию о том, готовится ли ужин. А архиватор FreeArc замечательно извлекает и использует информацию из одних данных для сжатия других. А вот примеры со снежинкой и растением мимо кассы — они просто следуют физическим законам, никаких решений не принимают и информацию не обрабатывают.


Я, кстати, в изначальном сообщении не писал про конкретно человека, а скорее имел в виду любое мыслящее существо. Вокруг определения "мыслящий" уже сломано куча копий и, в основном, человек его применят очень интуитивно. Причем, я склоняюсь к тому, что человек называет "мыслящим" или "живым" того, кто как раз умеет перерабатывать информацию. Это может быть человек, кошка, слон, разумный океан с Соляриса и может быть даже амебы, деревья (вот не могу сказать точно, насколько они разумны)

А вопрос с информацией в компьютерном смысле — очень даже интересен. Вот есть архиватор FreeArc, который сжимает и распаковывает файлы. Перерабатывает ли он информацию? Думаю, что нет. В этом случае он сродни снежинке, следующей физическим законам. Только для архиватора эти законы писаны человеком. Архиватор можно сравнить с горной рекой, вход которой узкий и бурный, а выход — широкий и плавно-текучий. Река трансформирует воду. Но перерабатывает ли она при этом информацию? Нет. Она всего лишь течет в рамках берегов, заданных природой (а архиватор — в рамках алгоритмов, написанных человеком).

Теперь расширим наш пример. Возьмем архиватор с самообучением, скажем на нейронных сетях. Подав на его вход файл, мы не просто получим на выходе сжатый файл, но и вместе с ним архиватор с измененным состоянием. Будет ли это являться получением архиватором новых знаний и, следовательно, причислением его к классу перерабатывающих информацию? Предлагаю высказать свои мнения по этому поводу, ибо я сам тоже не готов дать точный ответ

Кстати, все проводят парралели между общим понятием информации и информацией "компьютерного" плана. А эквивалентны ли эти понятия? Напрашивается аналогия с инерционной и гравитационными массами.

PS. Читая топик, невольно напрашивается мысль, что в стандартный курс обучения программиста обязательно входят ядерная и квантовая физика, общая и специальные теории относительности, термодинамика и астрономия, философия и риторика. Аж завидно
Re[14]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
От: depth  
Дата: 20.03.09 08:57
Оценка: 10 (1)
Здравствуйте, Voblin, Вы писали:

V>Да уж... Пошёл поток сознания Не относитесь к этому слишком уж критически. Тема информационных контекстов никем, похоже не прорабатывалась (или всё таки прорабатывалась?), и меня просто бешено мотает по непаханному полю


Не знаю, надо изучать интернет
Какие-то ссылки про теорию информации в ее философском аспекте находятся (например, http://www.inftech.webservis.ru/it/information/index.html), но их ценность и положения пока непонятны
Re[6]: Несколько дурацких вопросов по теории информации
От: Klapaucius  
Дата: 20.01.09 10:45
Оценка: 8 (1)
Здравствуйте, Tilir, Вы писали:

T>Вместе со Вселенной нам дана как в руководстве по эксплуатации вся информация о ней, причём безо всякого материального носителя любое иррациональное число это и есть изумрудная скрижаль, хроники Акаши, где всё прошлое и всё будущее.


А также бесконечное множество фальшивых скрижалей с неверными версиями будущего и прошлого.
Бесконечность лжи — это не инструкция по эксплуатации.

T>И исследуя лишь отношение радиуса окружности к её длине можно узнать о мире в неведомые миллионы раз больше чем всё человечество за тысячи лет. Мы лишь не можем пока вычленить всё это знание, поскольку не до конца изучили тот язык математики на котором мир говорит с нами.


А это сможет только демон из шестого путешествия Трурля и Клапауция, который отличает любое истинное утвеждение от ложного.
На языке математики можно записать сколько угодно много неверных описаний мира, точно также как и на русском языке можно сформулировать сколько угодно лживых утверждений. Так что экстракция информации из иррациональных чисел никаких перспектив в качестве инструмента познания не имеет.
... << RSDN@Home 1.2.0 alpha 4 rev. 1110>>
'You may call it "nonsense" if you like, but I'VE heard nonsense, compared with which that would be as sensible as a dictionary!' (c) Lewis Carroll
Re[5]: Несколько дурацких вопросов по теории информации
От: Tilir Россия http://tilir.livejournal.com
Дата: 20.01.09 11:14
Оценка: 8 (1)
Здравствуйте, Voblin, Вы писали:

V>Первая попытка наверняка будет неудачной. В продолжении — кракозябры и бессмыслица. Но я не отчаиваюсь. Ищу такие вхождения, чтобы их продолжение было написано человеческим языком. В какой-то момент мне это удаётся! Ух ты, я стану королём Сиама! Класс! Здесь бы мне остановиться, но я забыл остановить процесс поиска, и получаю в результате ещё кучу предсказаний о том, что завтра меня переедет грузовик, что через год я стану женщиной и у меня родится десять сыновей, что я превращусь в Ктулха и всех зохаваю, и т.д.

V>Блин, да в этом проклятом числе pi содержатся все возможные и невозможные варианты моего будущего! Какой выбрать? Скажите номер!

Ну и что? Костёр горит, а вражеской конницы всё нет и нет. Твоя исходная посылка была что для информации нужен физический носитель. Смотри сколько информации ты получил не задействуя никаких носителей. Включая ложную, разумеется. Осталось придумать надёжный метод отличать истинную информацию от ложной, ну так это техническая задача.
Re[7]: Несколько дурацких вопросов по теории информации
От: goto Россия  
Дата: 22.01.09 23:52
Оценка: 8 (1)
По-моему, здесь (и где-то еще в этой ветке) напрашивается такое понятие, как воля. Поскольку слово это заезженное, то допустим, что это черный ящик, который позволяет выполнять преобразования более высокого уровня, чем алгоритм или рефлекс. Уровня недерминированного в механистическом смысле.
Re[18]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 05.02.09 06:46
Оценка: 8 (1)
Здравствуйте, craft-brother, Вы писали:

CB>ОК. Данные переносят информацию (семантику) – это так, но, ИМХО, в роутере данные не становятся информацией. Роутер преобразует поученные данные в соответствие со своим алгоритмом и состоянием и отправляет их дальше, а также м.б. изменяет свое состояние. Роутер ничего не знает о семантике, но о семантике очень хорошо знал программист, который писал алгоритм

Ну вот опять: "роутер не знает о семантике"... Что такое "знает"? Если "обладает информацией" — то увы, в моём определении у роутера таки есть информация как о топологии сети, так и о структуре заголовков пакетов. Делать вид, что в нём этой информации нету — самообман. Программист, естественно, "знает" гораздо больше, чем роутер. Но меня это ничуть не смущает. Зачем роутеру читать Кнута? Ему достаточно того примитивного интеллекта, который ему дал создатель. А наличие воли, душевных метаний, эмоций, и прочих соплей нам, в контексте информации, неинтересно. Это по другому ведомству проходит.

Далее, предохранитель тоже в некотором смысле содержит информацию о том, какой ток он может через себя пропустить. И он таки принимает решение, пусть ровно одно в своей жизни. Совершенно верно — он ничем не отличается от транзистора, транзистор — от триггера, а триггер от процессора. "Внутри" никаких знаний нет — есть только голая физика, электромагнитное поле да плотность вещества. Ну так и внутри человека ничего, кроме физики, в общем-то нет. Нас же не это интересует! А с точки зрения того, что нас интересует, предохранитель ничуть не хуже, чем, к примеру, firewall.

CB>ЗЫ. Калькулятор никогда мыслить не будет. А где нет мысли, нет и информации, а есть только данные.

Такое определение информации имеет право на жизнь, но лично мне оно не нравится:

1. Оно субъективно. Потому как в основу определения положена еще одна мифологическая конструкция "мышление". То есть ситуация полностью изоморфна рассуждениям о душе. Я лично считаю бредом любые рассуждения о свойствах чего-либо, которые с одной стороны — суперважны, а с другой стороны — неизмеримы и неопределимы.

2. Оно неконструктивно. То есть на его основе никаких полезных рассуждений построить нельзя. К примеру, никаких "информационных технологий" быть в принципе не может, т.к. информации вне головы не существует.

Ну и нахрена нам такое определение, с которым ничего полезного сделать нельзя? Положить на полку и спокойно заняться обработкой "данных"?
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re[2]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 11:47
Оценка: 6 (1)
Здравствуйте, nikov, Вы писали:

N>Все это очень правильные и важные вопросы. Но ответа на них я пока дать не могу. Добавлю только, что понятие информации очень связано с понятием вероятности, которое тоже не удается нормально определить. И со вторым началом термодинамики, которое непонятно откуда берется (Loschmidt's paradox).


Про вероятность есть восхитительная монография "О природе случайности". Скачать её можно отсюда.
Re[3]: Несколько дурацких вопросов по теории информации
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 19.01.09 22:36
Оценка: 5 (1)
VGn>>Это мнение существовало до получения конденсата Бозе-Эйнштейна. Потом все запутались А тут ещё и гравитационное взаимодействие

SH>А почему запуталось? Что такое конденсат Бозе-Эйнштейна я прочитал.


Очень просто: Частиц много. Состояние одно. Развели на большоё расстояние. Изменили — изменились все частицы. Мгновенно (доказано). Значит передача информации мгновенна? Или это не передача вовсе? Тогда что? И главное как воспринимать тот факт, что физически таким образом информацию замечательно можно ПЕРЕДАВАТЬ?
... << RSDN@Home 1.2.0 alpha 4 rev. 1136>>
Re[14]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
От: SergH Россия  
Дата: 16.03.09 15:11
Оценка: 5 (1)
Здравствуйте, Курилка, Вы писали:

К>Вот тут как раз гораздо больше простора для человека, т.к. целеполаганием пока что компьютеры не могут заниматься

К>Причём цель для комьпьютера формируется "снаружи", т.к. человек способен сам формировать свои цели (хотя не всегда так делает).
К>Он способен ставить ещё и метацели — цель "найти цель", т.е. "тривиальный" поиск смысла жизни.

Но, возможно, всё это делается в рамках скрытого от нас движения к цели, о которой мы не в курсе?

К>Ты про гипотезу Сепира-Уорфа? Она вроде как раз о том, что разные языки дают разные результаты


Не, я не о том, да и Хомский был чуть позже.

К>Если о чём-то другом — кинь ссылкой.


Я не могу дать ссылку на источник, мне сестра объясняла
Ну вот в вики что-то похожее есть:

Универсальная грамматика — термин, которым в ряде лингвистических теорий обозначается предполагаемый набор правил или принципов, присущих каждому человеческому языку. Подобные правила не определяют язык полностью: они допускают значительную вариантность, но ограничивают её некоторыми конечными рамками. В современной когнитивной науке универсальная грамматика понимается как встроенное на генетическом уровне знание о языке.


http://ru.wikipedia.org/wiki/%D0%A3%D0%BD%D0%B8%D0%B2%D0%B5%D1%80%D1%81%D0%B0%D0%BB%D1%8C%D0%BD%D0%B0%D1%8F_%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B0%D1%82%D0%B8%D0%BA%D0%B0

К>А то, что бытие определяет сознание, то это врядли стоит оспаривать.


Бытие, конечно, определяет сознание.
Но и сознание, конечно, определяет бытие.
Делай что должно, и будь что будет
Re[14]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 28.01.09 10:37
Оценка: 4 (1)
Здравствуйте, craft-brother, Вы писали:

CB>Все так, только эта деятельность моего мозга мной не осознана и, хотя бы, поэтому не может быть выражена мной в алгоритме.

Из А не следует Б.
Ты точно так же не осознаешь деятельность мозга, управляющую сердечным ритмом. Тем не менее, это никак не мешает медикам хорошо разбираться в алгоритмах, которые там работают.


CB>1) Твоя. Человеческое мышление может быть полностью представлено языком бит и логических операций над ними (машина Тьюринга).


CB>2) Моя. Не все результаты мышления могут быть получены машиной Тьюринга.


CB>Ни то, ни другое на сегодня, вроде бы (может не все знаю?), не доказано. Поэтому можем только рассуждать, но не утверждать...


CB>Мои аргументы.


CB>Например. На сегодня не существует эффективных алгоритмов символьного решения геометрических задач уровня средней школы. Почему?


CB>Моя версия. Основным шагом в решении геометрической задачи есть «дополнительное построение». ИМХО, это гештальт, как его определяет Вертхеймер, результат, который не может быть получен при помощи логических операций над данными.


CB>Твоя версия?

Моя версия — инженерные трудности при построении такого алгоритма. Трудно придумать достаточно универсальный язык описания задачи, трудно построить схему быстрой классификации задачи.
Человек при решении такой задачи действует по принципу распознавания образов. Он узнает некую типовую задачу, применяет к ней типовое, заученное решение.

Вот, к примеру, гораздо более узкая задача "выиграть в морской бой" алгоритмизуется на раз-два.

CB>Готов ли ты дать хотя бы намек на алгоритм и исходные данные, по которым может быть вычислена машиной Тьюринга такая простая вещь, как колесо, если изначально оно в алгоритме и исходных данных не существовало?

Что значит "вычислена"? Что значит "изначально в алгоритме"? Что значит "в исходных данных"?
Вот, к примеру, банальный алгоритм нахождения наибольшего общего делителя почему-то вычисляет всякий раз число, которого изначально не было ни в алгоритме, ни в исходных данных.
В более сложных случаях, компьютер помогает рассчитать форму крыла самолёта человеку, который смотрит на результат и не верит, что это и правда полетит. Тебя не смущают эти примеры?
Не смущает то, что современный фотоаппарат определяет не только лицо, но и отличает улыбку? А ведь лет шестьдесят назад любой математик смеялся бы над таким предположением, примерно в тех же терминах как и ты сейчас. Типа "какой цифрой вы обозначите улыбку".

CB>Можешь считать, что гипотеза о невычислимости всего мышления при помощи машины Тьюринга моя. На психологию я ссылался только для определения двух разных типов мышления. Но что это меняет?

Да в общем-то ничего. Просто я уж было подумал, что есть какие-то серьезные исследования на тему моделирования работы правого полушария.
Еще раз подчеркну: большая часть рассуждений психологии не выдерживает никакой критики. Насчет "полушарий" я не уверен, но звучит это ничуть не лучше, чем, к примеру, трёхкомпонентная модель Фрейда или четырехкомпонентная модель из соционики.
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re[6]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 19.01.09 20:34
Оценка: 1 (1)
Здравствуйте, Курилка, Вы писали:

D>>Но я не согласен: по-моему, физическая и математическая истины — разные вещи.


К>"Нутром чую", или можешь как-нибудь хоть немного аргументировать?


В математике истинно то утверждение, которое выводится из определенной системы аксиом по заданным правилам вывода. При этом, конечно, следует доказать непротиворечивость получающейся теории — неприятно, когда одно и то же утверждение истинно и ложно одновременно

В физике критерием истинности утверждения, говоря грубо, служит согласие с экспериментом (ну тут можно написать много слов про фальсификацию и верификацию, но по сути это тонкости и детали). Несколько веков назад было замечено, что физические утверждения выражаются на языке математики. При этом все физические теории, которые адекватно описывают мир, удивительным образом непротиворечивы в математико-логическом смысле
Re[3]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 20.01.09 02:10
Оценка: 1 (1)
Здравствуйте, Курилка, Вы писали:

К>Ммм, Пенроуз безотносительно конкретной книги?


Сорри, имел в виду популярные "Новый ум короля", "Большое, малое и человеческий разум" и кажется еще что-то было..
Re[9]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 20.01.09 11:41
Оценка: 1 (1)
Здравствуйте, Voblin, Вы писали:

V>Рискую.


Ты ещё не понял, насколько

V>Да уж, сложно найти разум (или хотя бы какой другой обработчик информации) внутри футбольного мяча. Тем не менее, малые отклонения направления импульса, получаемого мячом от ноги, совершенно равнозначные как по веществу, так и по передаваемой энергии, приводят к существенным различиям в направлении движения мяча. Отклонение на несколько несчастных градусов может привести к ликованию или разочарованию трибун, к возникновению или не возникновению погромов, к изменению психологического климата в стране, и даже к изменению в ней демографической ситуации.


Конечно.

V>А сам мячик — нет, он никаких решений не принимает. Его природная сущность — получить импульс и двигаться в том направлении, в котором его послали.


А дверь с замком и ключом? А турникет в метро?

Имхо, понятие "информация" без "решения" неотличимо от понятия "воздействие". Т.е. либо ты все воздействия обзываешь информационными и тогда теория становится вырожденной, либо надо как-то различать.
Делай что должно, и будь что будет
Re[15]: Несколько дурацких вопросов по теории информации
От: LaPerouse  
Дата: 22.01.09 08:32
Оценка: 1 (1)
Здравствуйте, Voblin, Вы писали:

V>И на закуску (чисто любопытства ради) совместно с физиками понять, почему логарифм количества состояний не может двигаться быстрее скорости света.


Нет тут никакой мистики. Просто никакие взаймодействия, посредством которых и передается информация, не могут распространяться быстрее скорости света.
... << RSDN@Home 1.2.0 alpha 4 rev. 1089>>
Социализм — это власть трудящихся и централизованная плановая экономика.
Re[2]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 10:58
Оценка: +1
Здравствуйте, Курилка, Вы писали:

К>А попробуй ещё понятие "число" раскрыть (ну и другие понятия математики) "отдельно от своего носителя".


"Число" выкручивается из категории "множество".

Объявить "информацию" категорией — рука не поднимается.
Re[4]: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 19.01.09 15:51
Оценка: +1
Здравствуйте, Tilir, Вы писали:

T>Более того. Возьмём число pi. Которое 3.1415926... Надеюсь вы не будете спорить что в его полной записи в двоичном виде содержится ваша полная биография в формате txt, включая всё ваше прошлое и будущее.


Это недоказанное предположение.
Однако не составляет труда придумать число, в котором эта информация содержится.
Re[10]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 19.01.09 18:22
Оценка: :)
Здравствуйте, deniok, Вы писали:

D>Хорошо, а если я сообщаю ему пароль так: "первое n, для которого hailstone sequence не сходится к единице"? Можно ли сказать, что то, что он смог воспользоваться паролем, не содержит новой информации?


Сначала расскажите, что такое новая информация. Та, которую хз как получить?
Re: Несколько дурацких вопросов по теории информации
От: AndrewVK Россия http://blogs.rsdn.org/avk
Дата: 19.01.09 19:58
Оценка: +1
Здравствуйте, Voblin, Вы писали:

Предлагаю отделить мух от котлет. Информация как объективный фактор вполне описывается теорией информации и подчиняется второму закону термодинамики. А вот ценность, значимость информации — штука принципиально субъективная, и, разумеется никакими теориями пока не описывается. После такого разделения, думаю, почти все твои вопросы отпадут.
... << RSDN@Home 1.2.0 alpha 4 rev. 1132 on Windows Vista 6.0.6001.65536>>
AVK Blog
Re: Несколько дурацких вопросов по теории информации
От: vdimas Россия  
Дата: 19.01.09 21:17
Оценка: +1
Здравствуйте, Voblin, Вы писали:

V>У информации весьма сложные взаимоотношения с объективной реальностью. С одной стороны, бывает так, что информация объективно существует, и бывает так, что она объективно не существует. Например, я твёрдо уверен, что существует информация, называемая "А.С.Пушкин. Повести Белкина.", хотя, к своему стыду, в свой мозг через органы чувств я её не впитывал. Я могу купить эту книжку сегодня, могу — завтра, могу скачать её из Интернета, могу прослушать аудиокнигу. В любом случае, это будет один и тот же текст. Потому что этот текст когда-то был написан и сумел до нас дойти через множество материальных носителей в неизменном виде. А вот информации "А.С.Пушкин. Повести Грелкина." не существует. Объективно не существует. И даже бесполезно пытаться её найти.


V>Несмотря на то, что, казалось бы, информация может объективно существовать, объективность её существования — под большим вопросом. Например, существуют ли тексты, написанные на ронго-ронго? Таблички есть. Неровности на этих табличках тоже есть. Извлечь информацию, сохранённую когда-то в этих неровностях, пока не удалось. И не факт, что когда-либо удастся. Т.е. существование информационного объекта зависит от того, существует ли объект или субъект, который может её воспринять.


Эти 2 абзаца весьма показательны в плане того, что современный термин "информация" весьма неопределён, и зависит от контекста. Так что, посудачить вокруг этого понятия можно, но только лишь с целью перечисления областей его применимости, но никак не с целью дать определение термину как таковому, т.к. в определённом контексте "А.С.Пушкин. Повести Грелкина." — тоже вполне информация...

Мне кажется, что наиболее общий случай применимости этого понятия существует и означает минимальную границу различимости чего-либо, например, как квант энергии у физиков. Понятное дело, что более узкое и чёткое применение термина целиком зависит от наложенных критериев, типа как у тебя критерий существования печатного издания, или же критерий неизбыточности у пробегавших здесь спецов по сжатию той самой "информации".

V>Считается, что при копировании информации её количество не изменяется.


Не меняется лишь в определённом базисе критериев.

V>Считается, что обработка информации не увеличивает её количества. Информация может исчезать (те, кто кусал себе локти, не сделав вовремя бэкап, меня поймут). Вопрос: откуда информация берётся, если не существует операций, увеличивающих количество информации, зато есть масса обстоятельств, при которых она исчезает?


При обработке (трансформации) ты получил новое состояние информации, удовлетворяющее неким критериям; в рамках этих ограничений "кол-во" информации очень даже увеличилось, и "потерялось" потом опять же лишь в рамках этих же ограничений.


V>Или всё-таки существуют явления, увеличивающие количество информации?


Угу, "Большой Взрыв", например.
А остальное — лишь переливание из пустого в порожнее, трансформация информации, то есть.

V> Кто-то может сказать, что первичный информационный поток порождается квантовыми явлениями и радиоактивным распадом. Но ведь даже если бы мир был устроен строго механистично, в нём что, кончилась бы информация?


Если бы миру было куда безвозвратно терять энергию, то именно так, закончилась бы в итоге.

V>В привычной шенноновской триаде "передатчик -> канал -> приёмник" тоже что-то не так. Полярная звезда, тупо разбрасывая вокруг себя кванты электромагнитной энергии, не посылает путешественникам информацию о том, где находится север.


Опять же, различимые состояния материи (и механического положения в т.ч.) — вполне себе информация.


V>Понятие количества информации — это вообще та ещё сказка.


Золотые слова. ИМХО, полезнее попытаться сформулировать именно это понятие, т.к. когда в быту мы говорим об "информации", мы зачастую имеем ввиду именно её "кол-во" в интересующих нас попугаях (опять привет "сжимающим" ).

V>2. Что бы нам ни говорили полубезумные провидцы, ось времени, по которой мы все путешествуем — это именно тот вектор, по которому движется информация. И в обратную сторону не ходит. По крайней мере, в воспроизводимых экспериментах.


Разве информация обязательно должна изменяться со временем? Время применимо к трансформации/переносу оной.


V>Оставаясь в рамках позитивной науки, можно с некоторой долей уверенности выделить следующие свойства информации:

V>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии.

V>Если это принять, то все паранаучные рассуждения об информационном поле, глобальном информационном континууме и прочая муть сразу становятся ложными. Более того, фраза "В начале было Слово" сразу порождает еретический вопрос: "На чём было записано это Слово?".

V>2. Из точки А информация не может поступить в точку Б если между ними нет информационного канала. Если принять п.1, то это должен быть перенос либо вещества, либо энергии. Т.е. прорицатель должен принимать вещество или энергию, движущиеся в обратном направлении по оси времени.

V>Какие ещё у информации есть свойства?


Ну, блин, сам же всё знаешь, а спрашиваешь?

А если продолжать задавать вопросы, то можно забуриться в такие дебри:
1. если вещество (материя) суть разновидность существования энергии, то в базисе можно оставить только энергию.
2. соотвественно, распространение/транформация информации — это распространение/трансформация энергии.
3. тогда, а что такое "энергия"? откуда взялась?
... << RSDN@Home 1.2.0 alpha rev. 786>>
Re[3]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 20.01.09 02:28
Оценка: -1
Здравствуйте, AndrewVK, Вы писали:

AVK>Плохая у тебя попытка вышла. Во-первых энтропия не может быть бесконечной, она по определению больше нуля и меньше единицы.


Где ты взял такое определение? Глупости говоришь (или переносишь частный случай на общий).

AVK>Аналогия тоже негодная. Если Ктулху еще не окончательно заховал мой моск, информация равна произведению энтропии и двоичного логарифма от количества возможных состояний системы.


Еще одна новость. Откуда такие формулы берешь? Ктулху подсказал?
Энтропия местами в физике определяется через логарифм от числа микросостояний системы, соответствующих данному макросостоянию. Т.е. чем больше состояний для нас неразличимы, тем больше энтропия — наше незнание о системе.
Re[12]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 20.01.09 02:43
Оценка: +1
Здравствуйте, deniok, Вы писали:

DM>>Сначала расскажите, что такое новая информация. Та, которую хз как получить?


D>Ну вот докажут, что P=NP. Или, более вероятно, что P\=NP. Это не будет новой информацией?


Воблин скажет, что она будет старая — ее просто перенесут из компа/тетрадки в мозг.

В том-то и фишка, что ответ всегда зависит от субъекта — есть у него уже такое знание или нет. Если знание или несложный способ его излечения у нас есть, для нас это не новая информация. Если нет — кажется новой, пока мы ее не получили. Вопросы о 10001-м простом числе и P=NP не отличаются принципиально. Если субъект — человечество, то на первый вопрос ему ответ известен, а на второй — нет. Но жителям Сириуса он вполне может быть известен, для них это не будет новой информацией.
Re[2]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 09:01
Оценка: :)
Здравствуйте, VladD2, Вы писали:

VD>Уже существует и неплохо ищется здесь


Походил по ссылкам. Текста не нашёл

Посмотрела "Полёт над гнездом кукушки. Я в шоке. Где гнездо?

Re[5]: Несколько дурацких вопросов по теории информации
От: Tilir Россия http://tilir.livejournal.com
Дата: 20.01.09 10:05
Оценка: -1
Здравствуйте, nikov, Вы писали:

N>Однако не составляет труда придумать число, в котором эта информация содержится.


Не "придумать", а найти. Меня эти мысли всегда приводили в состояние близкое к "страху Божию", хоть я и неверующий. Вместе со Вселенной нам дана как в руководстве по эксплуатации вся информация о ней, причём безо всякого материального носителя любое иррациональное число это и есть изумрудная скрижаль, хроники Акаши, где всё прошлое и всё будущее. И исследуя лишь отношение радиуса окружности к её длине можно узнать о мире в неведомые миллионы раз больше чем всё человечество за тысячи лет. Мы лишь не можем пока вычленить всё это знание, поскольку не до конца изучили тот язык математики на котором мир говорит с нами.
Re[7]: Несколько дурацких вопросов по теории информации
От: Tilir Россия http://tilir.livejournal.com
Дата: 20.01.09 11:18
Оценка: -1
Здравствуйте, Klapaucius, Вы писали:

K>На языке математики можно записать сколько угодно много неверных описаний мира, точно также как и на русском языке можно сформулировать сколько угодно лживых утверждений. Так что экстракция информации из иррациональных чисел никаких перспектив в качестве инструмента познания не имеет.


Ну утверждать этого нельзя. Можно сказать только что мы не знаем как отличить истину от лжи. Но мы и что такое истина тоже не знаем. Но иррациональные числа это капля в море того из чего информацию можно извлекать. Просто они являются очень хорошим примером того, что мы не можем ничего *придумать*. Нет ничего нового, всё уже есть. Человек не может придумывать информацию а только извлекать её. И не из физического при этом мира, а из чего-то что вообще сложно обозначить "где это".
Re[3]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 21.01.09 04:59
Оценка: +1
Здравствуйте, Voblin, Вы писали:

V>Вот именно, что "почти всегда". Если я вдруг получу из надёжнейшего источника информацию о том, что никакой человек по фамилии Медведев не является и никогда не являлся президентом России, то моя какая-никакая определённость в отношении государственного устройства РФ превратится в полную сумятицу. Т.е. информация вызвала увеличение неопределённости, хотя, по идее должна была её либо уменьшить, либо оставить прежней.


А кто сказал, что она не может быть отрицательной? Поскольку это лишь дельта энтропии, она может иметь любой знак.

DM>>Формула для энтропии неслучайно очень похоже выглядит в казалось бы разных областях — в теории информации, в квантах и в термодинамике. Она во всех этих случаях описывает меру нашего незнания о системе. И связь информации с вероятностями совершенно логична: вероятности используются для описания систем и событий, где мы не знаем точного состояния.


V>Вероятность — такая странная штука, что применять её надо осторожно.


Разумеется, просто надо уметь с ней обращаться. Тогда интуитивно кажущиеся "парадоксы" (типа нулевой вероятности) перестанут быть парадоксами и все заработает. Вероятностное описание мира вполне себе неплохо работает.

V>Б.Б.Кадомцев. Динамика и информация.


Да, вроде она.

V> Скачал, посмотрел. В основном физика. По части информации и её свойств — мизер.


Попробуйте внимательнее почитать, там можно ухватить самую физическую суть того, что такое информация. А о свойствах можно и у Шеннона почитать.

V>Ой, боюсь, что физика здесь не поможет. Притом никаким своим разделом. Информация и всё, что с ней связано — это чистая абстракция в духе математики и логики. Думаю, информация осталась бы информацией и её движение подчинялось бы тем же самым законам, если бы мы жили в четырёхмерном пространстве и двумерном времени.


Информация — такой же математический объект, как энтропия, температура или скорость. Физика лишь дает хорошую почву для применения этих абстракций.
Re[17]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 21.01.09 14:29
Оценка: +1
Здравствуйте, Voblin, Вы писали:

V>Стоп. А как тогда объяснить квайны?

V>Так что аддитивность не канает. Вернее, канает, но как-то так странно, прихрамывая на обе ноги.

Мне кажется, что вы хотите совместить простоту измеримости с одной стороны и учет всех нюансов интерпретации информации с другой. Так не получится. Подобную же философию можно развернуть вокруг вопроса: как это килограмм яблок и килограмм гвоздей — одно и то же? Не одно и то же, конечно. Просто масса одинаковая.

Если отделить "смысл для потребителя", который зависит от способа интерпретации (и может быть описан в рамках какой-то формальной или неформальной семантики), от фактического, объективного содержания информации в сообщении (или ещё где-то), то многие вопросы снимутся.
Re[12]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 22.01.09 06:56
Оценка: +1
Здравствуйте, SergH, Вы писали:

SH>Но какие-то штуки этот конденсат позволяет делать. Судя по вики они там свет замедляли,

В этом ничего интересного нет. Скорость света в веществе кардинально отличается от скорости света в вакууме. Просто потому, что фотоны взаимодействуют с веществом.
В обычном световоде групповая скорость — около 2/3 скорости света. Поэтому ничего принципиально интересного не произошло: да, получили вещество с офигенным коэффициентом преломления. Если удастся это при высокой температуре, то можно будет сделать плоские линзы большого диаметра

SH>атомами плевались...

Ну да. Аналогичное "плевание фотонами" было произведено в шестидесятые, примерно, годы. Получило мировую известность под аббревиатурой названия Light Amplification by Stimulated Emission of Radiation. Ну то есть когерентные пучки атомов — прикольная и технологически полезная штука. Но ни лазер, ни конденсат не могут обмануть физику.

SH>Т.е. как-то с ним взаимодействовать можно. Видимо, важен процент атомов, которые "на нуле", и пока этот процент достаточно высок, они всё друг в друга проникают и все в целом работают "как одна большая частица".

Они не работают "как одна большая частица", в том смысле, что взаимодействуют с чем угодно они всё-таки по одному. Они работают как "неразличимые" частицы; в том смысле, что невозможно выбрать, с каким именно атомом ты хочешь провзаимодействовать.

SH>Но про возможность разделения на части с сохранением связи между ними, или хотя бы про возможность _измерить_, что во всём макроскопическом объёме состояние меняется мгновенно (довольно логичное предположение) это ничего не говорит.

Состояние чего именно? Ничего интересного не происходит. Поясню еще раз: внутри лазера фотоны живут примерно в таком же конденсате. То есть каждый фотон, в некотором смысле, занимает весь резонатор. Ничего "интересного" из этого не происходит: не получится подействовать на один конец резонатора и мгновенно получить эффект на втором.
... << RSDN@Home 1.2.0 alpha rev. 677>>
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re[4]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 22.01.09 07:30
Оценка: +1
Здравствуйте, craft-brother, Вы писали:

CB>Здравствуйте, deniok, Вы писали:


D>>Как возможность объективизации соотносится с декларированной выше сентенцией "Объективно информация не существует"?


CB>Попытаюсь объяснить. Согласно моему представлению, информация это то, что рождается в субъекте живой природы в результате познавательной деятельности. Эта информация может быть представлена (отражена, объективизирована) в некотором сообщении (данных). Например, я могу сказать «Проблема округлости квадрата неразрешима». С точки зрения русского языка фраза бессмысленна и никто не получит из нее никакой информации. Но если эта фраза пароль для секретного агента 007, то этот субъект из этой фразы извлечет информацию: «пришел связник» . Таким образом, данные лишь способ отражения информации на материальном носителе. Данные снова могут стать (а могут и не стать) информацией только после их интерпретации субъектом. В этом смысле информация всегда субъективна.

Вот интересно, когда электромагнитные колебания существуют сами по себе, то они, возможно, несут какие-то данные.
А когда они взаимодействуют с антенной сотового телефона, то телефон волшебным образом извлекает из них информацию: "пришла SMS с таким-то текстом".
Разве это не информация? Ведь никакого текста в колебаниях волн не было.
Ну, в принципе, можно трактовать это и как данные. Которые, типа, требуют субъекта живой природы для интерпретации. Ага, получил значит водитель SMS "заведи машину, скоро поедем" — проинтерпретировал, завёл.
Хотя, то же самое могла сделать и GSM-based сигнализация: с неменьшим успехом она интерпретирует SMS и заводит машину.
Есть ли внутри сигналки информация? Или там по-прежнему данные?

CB>Все что фиксирует видеокамера и обрабатывает компьютер по заданному тобой алгоритму это лишь отражение объективного мира на разные носители и преобразование этого отражения, но никак не аккомодация. Аккомодация это свойство живой материи понимать (осмысливать) поступивший сигнал, изменять свою внутреннюю картину мира и свое поведение. Никакое преобразование данных не породит новый смысл.

Интересно. А что такое "новый смысл"? Я привел примеры преобразования данных. Ок, человек умеет еще и "менять преобразователь" по ходу пьесы. Ну, так на то и фон-Неймановская архитектура с изменяемой программой. У меня вот винда выкачивает апдейты для самой себя с завидной регулярностью, постепенно обучаясь интерпретировать всё новую и новую информацию. Где граница?

В мозгу ведь тоже происходит отображение объективного мира на некоторых носитель, и некоторое преобразование этого отношения.
Что есть "осмысливание" и чем оно отличается от преобразования — я, честно говоря, не понимаю. Вот росток сосны (упомянутый IT) вполне себе осмысливает отсуствие света и направление гравитпции, делает некоторые выводы и растёт. При этом осмысливания в нём не намного больше, чем в стрелке компаса. То есть в нём по-прежнему используются данные, а никак не информация в твоём определении.
... << RSDN@Home 1.2.0 alpha rev. 677>>
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re[18]: Несколько дурацких вопросов по теории информации
От: LaPerouse  
Дата: 22.01.09 08:57
Оценка: +1
Здравствуйте, deniok, Вы писали:

V>>2. Компутеры бывают не только цифровыми (где понятие "бит" обретает вполне конкретный смысл, вычисляемый через логарифм), но и аналоговыми. Чем мерить обрабатываемую ими информацию, если при попытке найти логарифм мы всеми частями тела бьёмся о многочисленные выпирающие со всех сторон бесконечности? Хотите сказать, что аналоговые — это вообще не компутеры, а так, насмешка истории? А вот и нет! Некоторые задачи (в частности, поиск оптимального пути) аналоговым компутером решаются невероятно эффективно. И создаются человеком они именно для обработки информации.


D>Курить, например, геометрическое определение вероятности. Фишка в том, что любой непрерывный процесс можно дискретезировать, важно, чтобы в интересных диапазонах отсчеты были расставлены достаточно часто. Выделяешь подходящую полную группу событий — и вперед.


Аналитическое выражение для плотности вероятности легко находится для каждого конкретного случая, так что ничего там дискретезировать не нужно. Достаточно проинтегрировать ее в нужных пределах, и все.
... << RSDN@Home 1.2.0 alpha 4 rev. 1089>>
Социализм — это власть трудящихся и централизованная плановая экономика.
Re[14]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 22.01.09 10:27
Оценка: +1
Здравствуйте, LaPerouse, Вы писали:

LP>Ага, правильно — новой. На самом деле, информация — она всегда информация. Вне зависимости от того, известны ли сущности, ею определяемые наблюдателю или нет. Скажем, когда мне говорят, что скорость звука — 340 м/c, при том, что мне это известно еще с 7 класса, от этого утверждение "скорость звука — 340 м/c" не перестает быть информацией. Просто количество информации, которое несет в себе это утверждение, будет равно конкретно для меня нулю. Таким образом относительно понятие количество информации, а не сама информация. Новой информацией будет так информация, количество которой отлично для данного наблюдателя от нуля.


"Количество для меня" — это по-моему вообще бессмыслица. Я же могу начать размышлять о том, "почему он мне сейчас сказал, что скорость звука — 340 м/c. Что он имел ввиду?". И сделать некоторые выводы, возможно полезные. А значит уже не ноль. То есть моя мысль в том, что присваивать численные характеристики таким вещам не имеет особого смысла. О какой-то формализации имеет смысл говорить, если мы четко и исчерпывающе описали процедуру интерпретации.
Re[2]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.01.09 14:48
Оценка: +1
Здравствуйте, craft-brother, Вы писали:

CB>Объективно информация не существует. Информация субъективна. Информация это свойство живой материи иметь представление и понятие о чем-либо. Информация это то, что создается в живой материи при отражении объективного мира и аккомодации.

CB>...
CB>Источник и хранилище информации — живая материя. Как и каким местом она ее порождает — никто не знает. Вне субъекта информация не существует. Могут существовать только данные.

Мне трудно согласиться с тем, что для определения понятия "информация" задействуется понятие "жизнь".
Проблема не в том, правильно это или не правильно. Мне не нравится сам подход к проблеме, когда вместо исследования непонятного явления мы связываем его с ещё более загадочным явлением, на чём рассуждения благополучно и заканчиваются или уходят в такую мутную неконкретику, что полезного выхода ждать уже не приходится. Это интеллектуальная капитуляция.

CB>Еще немного ИМХО о информации здесь
Автор: craft-brother
Дата: 18.08.06
.


Спасибо за ссылку. И особенно спасибо за те ссылки, которые там есть.
Re[18]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 22.01.09 21:00
Оценка: :)
Здравствуйте, SergH, Вы писали:

SH>И очень отклоняешься в сторону. Возможно, Пенроуз бы поддержал разговор на эту тему, особенно если его аргументация как-то связана с тем, что ты пишешь. Но я не Пенроуз.


А, сорри, это ж я тебя попросил объяснить, почему с твоей точки зрения мозг не МТ. Извини за наезд, был неправ. Как отдельную тему это можно пообсуждать.

Я правильно понял твою версию: мозг конечно детерминирован, но всё вокруг такое чудесное и неожиданное, что в комплексе получается тоже чудесно и неожиданно?
Делай что должно, и будь что будет
Re[8]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.01.09 08:05
Оценка: +1
Здравствуйте, D. Mon, Вы писали:

DM>"Науки бывают естественные и противоестественные".

DM>Биологию и социологию можно выразить языком формул математики и физики (впрочем, язык физики — та же математика, разница лишь в досадном наличии реальности, с которой требуется соотноситься для проверки истинности ). А насчет математической формализуемости литературоведения у меня есть большие сомнения.

Бытует мнение, что если в какой-то науке не получается заюзать математику, то это вроде бы и не наука. Вот народ и корячится, притягивая матиматику к тем областям знаний, в которых ей, в общем-то делать нечего. Чаще всего притягивают статистику, и притом делают это безграмотно и, в общем-то, бесполезно.

А ведь есть огромные области знаний, которые формализации вообще не поддаются так как исследуют слишком сложные объекты.
Возьмём, например, психологию. Чистое шаманство! Антинаука, по своей природе лишённая не только математических основ, но и вообще какой бы то ни было логики. Тем не менее, это одна из самых полезных для человечества отраслей знаний. Учителя математики, изучившего математику, но не овладевшего в совершенстве предметом "детская психология", к детям выпускать нельзя.
Re[11]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 23.01.09 08:44
Оценка: +1
Здравствуйте, Курилка, Вы писали:


К>Т.е. компилятор это не "программа хотя б в несколько KSLOC"?

К>Ну и цитата с приведённого сайта:

К>

К>By ruling out the possibility of compiler-introduced bugs, verified compilers strengthen the guarantees that can be obtained by applying formal methods to source programs


К>Другое дело, что для программы складского учёта врядли будут использовать формальные доказательства, т.к. посчитают экономически не целесообразным (скорее всего). В отличии от военных и космических проектов (по-меньшей мере я так думаю).


ИМХО, проблема немного другая. Сгенерировать код по формальной спецификации не сложно. Сам не раз писал такие программы. Проблема в том, как создавать формальную спецификацию (если хочешь, DSL) для нетривиальной прикладной области.
Re[6]: Несколько дурацких вопросов по теории информации
От: goto Россия  
Дата: 23.01.09 21:23
Оценка: +1
Здравствуйте, Курилка, Вы писали:

К>Здравствуйте, goto, Вы писали:

...
G>>Человек, как машина по переработке информации, тоже постоянно занимается ее дискретизацией. Немного не в тему, но рискну добавить: для большинства случаев, чем менее развит человек, тем более жестко он фильтрует (уничтожает для себя) поступающую информацию.

К>По-моему не обязательно, просто для решения какой-то задачи необходим один уровень детализации, для другой задачи — другой уровень.

К>И порой наоборот важно увидеть именно "крупноблочную" картину, чтобы не отвлекали лишние мелкие детали.

Согласен. Я написал "для большинства случаев", для суперобобщений у меня нет оснований. И я скорее имел в виду широкое и цельное восприятие информации, а не процесс манипулирования ей для решения конкретной задачи. Например, наблюдая "крупноблочную" картину, можно отмечать и детали, причем не отвлекаясь (в противовес — можно кроме крупных блоков больше ничего в упор не видеть). Что-то близкое к таким вещам, как наблюдательность, непредвзятость, открытость. Но это сложный для обсуждения вопрос.
Re[12]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 26.01.09 07:38
Оценка: +1
Здравствуйте, SergH, Вы писали:

SH>Один нюанс. Ты просишь ответ на формальном языке, т.е. с точки зрения машины. Я не уверен, что такой ответ существует, даже если разница есть

Ну почему? Меня бы вполне устроил и неформальный ответ. Я просто не люблю, когда в рамках философии программирования люди начинают нести гуманитарнообразный бред. Ок, "мышление свойственно живой природе". Отлично, я не против. Но давайте тогда дадим определение понятию "живая природа". Если не получается дать определение, то давайте хотя бы методом Монте-Карло: посмотрим на некоторые примеры из т.н. живой природы и поймем, есть там мышление или всё-таки нету. Я спросил напрямую: мыслит ли вирус?
Ответа нет. Надо полагать, оттого, что самому оппоненту интуитивно понятно, что нет, нихрена не мыслит. По крайней мере, мышление вируса легко алгоритмизовать — это химия, а химия это физика, а физика это математика — ок, приехали.
Тогда, получается, нужно вирусы выкинуть из понятия "живая природа". Иначе получается, что тезис про свойственность мышления живой природе придется выбросить как несовместимый с наблюдаемой реальностью.
Ок, пойдем дальше — бактерии мыслят? И так далее, будем идти, пока не упрёмся в очевидную границу. Слава байту, хотя бы нет песен о "душе", коя и отличает тру мысливцев от жалкой машинерии.
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re[23]: Несколько дурацких вопросов по теории информации
От: . Великобритания  
Дата: 26.01.09 19:32
Оценка: :)
Voblin wrote:

> Даже если бы Большой Взрыв был параметризован всего одним вещественным

> числом (например, числом пи), всё равно, за счёт многочисленных
> повсеместно возникающих точек бифуркации, новорожденная вселенная всё
> равно получила бы своё бесконечное разнообразие. Малые отклонения угла
> столкновения сферических коней приводит к большим отклонениям их
> траекторий, и как следствие, к ещё большим отклонениям углов их
> последующих столкновений.
Совершенно верно. Но одно большое но.
Осталось доказать физичность вещественных чисел... Могут ли существовать эти некие "малые отклонения"? Или всё квантовано? Всяческие расстояния Планка...

То что мы пишем sin(alpha) это всего лишь матмодель, а физически у нас alpha не может принимать любое вещественное значение, вполне возможно, что только некое счётное подмножество.
Posted via RSDN NNTP Server 2.1 beta
но это не зря, хотя, может быть, невзначай
гÅрмония мира не знает границ — сейчас мы будем пить чай
Re[4]: Несколько дурацких вопросов по теории информации
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 26.01.09 20:50
Оценка: :)
К>Т.е. множество это нечто реально существующее ("отдельно от своего носителя")?
все, что начинается на М
Автор: OnThink
Дата: 12.12.05

... << RSDN@Home 1.2.0 alpha 4 rev. 1136>>
Re[29]: Несколько дурацких вопросов по теории информации
От: Cyberax Марс  
Дата: 26.01.09 22:03
Оценка: +1
Здравствуйте, ., Вы писали:

>> Можем. Но каждый раз оказывается, что есть какая то фундаментальная

>> причина, ограничивающая точность вычислений.
.>Это как?
А вот так!

.>Обычно так не бывает. Просто плавно перестаёт действовать один закон, а начинает действовать другой, не учтённый в модели.

Ну так и происходит. Вот в эксперименте GIGO очень точно измеряют расстояние (с точностью меньшей размера протона!) для обнаружения гравитационных волн. Так у них сейчас пошёл белый шум на определённых частотах.

Этот шум хорошо согласуется с предсказанием "голографической модели". И если мы будем дальше увеличивать точность — фигня получится. Как на электронной фотографии — если её увеличивать, то мы просто будем наблюдать большие пиксели.

.>А может даже и теоретически нет? Откуда такая уверенность?

.>Я говорю не о матмоделях, а о физической реальности.
В реальности тоже ограничения есть.
Sapienti sat!
Re[31]: Несколько дурацких вопросов по теории информации
От: Cyberax Марс  
Дата: 26.01.09 22:39
Оценка: +1
Здравствуйте, ., Вы писали:

>> различимыми состояниями. То что не влезло в текущий предел точности.

>> Напоминаю про: \delta X \delta P >= \hbar / 2
.>Это неопределённость Гейзенберга? А X и P тут вещественные величины или из конечного множества?
Вещественные. Правда, в любом случае квантованые.

Т.е. представь, что ты измерил положение электрона с планковой точностью (порядка 10^-43 м.). Но тогда для этого тебе нужен будет фотон такой высокой энергии, что при ударе в электрон возникнет чёрная дыра.

То есть, в любом случае, есть ограничения.
Sapienti sat!
Re[33]: Несколько дурацких вопросов по теории информации
От: Cyberax Марс  
Дата: 26.01.09 23:38
Оценка: +1
Здравствуйте, ., Вы писали:

.>Кстати, интересно. Чисто теоретические рассуждения. Скажем, пусть объект А за сферой. Мы наблюдаем некий близко расположенный к А объект Б, но внутри сферы. Мы же можем по характеристикам Б вычислить характиристику А (как по траекториям известных планет вычисляют траектории неизвестных), т.к. для Б он находится внутри сферы. Т.е. мы можем объекты за сферой наблюдать косвенно по поведению наблюдаемых объектов.

Мы можем вычислить характеристики А и по его взаимодействиям с другими объектами вне сферы. Какие проблемы-то?

Мы просто не можем никак взаимодействовать с А.

Он будет просто постепенно тускнеть, а время в нём нам будет казаться нам всё более и более замедленным. Представь, что мы наблюдаем за часами в А — отсчёты этих часов будут для нас всё больше и больше, из-за красного смещения изображения этих часов.

Наблюдатель в А будет видеть то же самое, но только в отношении нас.
Sapienti sat!
Re[16]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 27.01.09 09:08
Оценка: +1
Здравствуйте, craft-brother, Вы писали:

CB>Есть замечательное рассуждение философа Джона Серля (John Searle), известное под названием "Китайская комната". Оно звучит, примерно, так. [...]


Состоятельность этого рассуждения уже много раз оспорена. Даже Станислав Лем стукнул несчастного Джона Серля.

С помощью логического рассуждения, почти один-в-один повторяющего "китайский аргумент" можно легко "доказать", что к вычислению не сводится, например, сортировка или поиск корней квадратного уравнения.

CB>PS. Есть предложение эту ветку прикрыть и продолжать обсуждение только в одной ветке.


В какой?
Re[16]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 31.01.09 15:21
Оценка: +1
Здравствуйте, craft-brother, Вы писали:

CB>Не обязательно формальное, можно рабочее.

Рабочее — примерно такое: информация — это данные с некоторой семантикой.
При этом семантика не обязательно должна существовать в мозгу хомо сапиенса.
К примеру, набор бит в заголовке IP пакета является данными с точки зрения протокола Ethernet, но как только их читает роутер, они мгновенно становятся информацией о происхождении пакета и месте назначения. Сопоставляя их с информацией о локальной топологии сети, роутер принимает решение своих действиях.
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re[26]: Несколько дурацких вопросов по теории информации
От: vdimas Россия  
Дата: 06.02.09 15:45
Оценка: -1
Здравствуйте, AndrewVK, Вы писали:

V>>Ага, который опирается на термин сведений


AVK>Нет там никаких сведений.


Есть, в одних формулировках применяется "сведение", в других "знание о системе", не суть.


V>>, которое ИМХО, весьма субъективно


AVK>Зато состояния системы — объективны.


И что? Состояние — да, а информация и энтропия — увы, субъективны.
Отсюда и путаница.

V>>, отсюда я склонен относить конкретную энтропию чего-либо так же к субъективным понятиям.


AVK>Принцип неопределенности тоже субъективен?


Еще как, ибо зиждется на, я уверен, субъективном представлении о мироздании.


V>>Имел ввиду, что несерьёзность в том, что невозможно формализовать — где кончается объективность и начинается субъективность.


AVK>И не надо. Теория информации под информацией имеет в виду вполне конкретную вещь,


Это ты про общую теорию информации?


AVK> и законы, которые там описываются, вполне объективны.


Они вполне абстрактны, как законы гармонических колебаний. Не удивляет, почему формулы энтропии для термодинамики и для символьной информации так похожи? Не значит ли это независимости от "базиса"?

ИМХО, общая теория информации оперирует наиболее общим известным на сегодняшний день день базисом (в базисе вещества и энергии), только и всего.
... << RSDN@Home 1.2.0 alpha rev. 786>>
Re[32]: Несколько дурацких вопросов по теории информации
От: vdimas Россия  
Дата: 06.02.09 18:05
Оценка: -1
Здравствуйте, AndrewVK, Вы писали:

V>>Ну вот и дискретный получили


AVK>Нет, полосовой фильтр может быть и аналоговым.


Мммм, надо мне, наверно, больше букв писать.
Разумеется, что каждый конкретный фильтр может быть в аналоговом исполнении, но он будет настроен на определённую частоту, все вместе — на сетку частот. Это именно то, о чём сказал в самом начале подветки — дискретное преобразование Фурье на аналоговой схеме.

Даже если каждый фильтр настраиваемый, то он не выполняет основной ф-ии — разложения сигнала в гармонический ряд (т.е. не в состоянии найти/выделить хоть одну частоту из комбинации близкостоящих). Опять же, у варианта с фильтрами большие бока с точностью, ввиду невозможности добиться достаточной для преобразования узкополосности и прямоугольности полос, поэтому и используют корреляторы на умножителях в системах обнаружения. Там "полоса" фильтра зависит от T ФНЧ на выходе коррелятора (2 выхода, если быть точным).

Кстати, есть интересный цифровой алгоритм разложения сигнала в гармонический ряд не по фиксированной сетке частот (т.е. гораздо ближе, к задаче интеграла Фурье), но там расчёт ведется из предположения, что сигнал формируют не более N членов ряда, если более — с некоторой большой вероятностью находит эти N наиболее значимые. Т.е. имеем на многие порядки меньшую дискретизацию по частоте, с точностью до применяемых в вычислении типов. Алгоритм весьма затратный, кстати, мне не удалось заставить работать его в реал-тайм для гитарного препроцессора. (Выход алгоритма использовался как параметр полосовых фильтров).

V>> (т.е. по фиксированной сетке частот, а не по рельному непрерывному ряду)


AVK>Можно и по непрерывному ряду. Скажем, ряд физических процессов позволяет растащить частоты в пространстве.


Суть изначального замечания была в том, я не представляю, как этот непрерывный ряд снимать, что с ним потом делать, а самое главное — с какой целью?
Потому обратил внимание, что речь всё-равно идёт о дискретном преобразовании (по дискретной сетке частот).


V>>Датчики после призмы тоже дискретные будут


AVK>Нет никаких датчиков, не сочиняй


Ну нам же разложенный сигнал надо как-то принимать/обрабатывать?

V>>, и еще было бы интересно посмотреть на преобразователь электрического сигнала в световой с неким пропорциональным частотным переносом.


AVK>Зачем?


Ну раз такое смелое предположение, стало интересно на схему целиком взглянуть.
... << RSDN@Home 1.2.0 alpha rev. 786>>
Re[16]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 06.03.09 16:15
Оценка: :)
Здравствуйте, Voblin, Вы писали:

SH>>Да.

V>Упс... Можно это "да" раскрыть подробнее?

"Магический электронный дым покидает компьютер потому что <вставьте сюда что-нибудь святое, можно про детей>"

SH>>Это всё глупости потому что тебя никто не будет спрашивать. И ждать, пока ты скажешь "ну всё, можно и помирать".

V>Не понятна логика. Ну и что с того, что нет этого спрашивающего/ждущего?

А, тогда попробуй разобраться со словом "готов" в фразе "я не готов сегодня умереть потому что ...".
Я правильно понимаю, что без потери точности фразу можно переформулировать как:

"Моя жизнь ценна потому что ..."

?

Дальше спросим "ценна для кого". Видимо, для человечества.

"Моя жизнь ценна для человечества потому что ..."

Ещё не смешно? Продолжим преобразования.

"Я нужен человечеству потому что ..."

И это очень похоже на

"Я хороший потому что ..."

Дальше я могу порекомендовать для ознакомления книгу Иова, она описывает библейскую точку зрения на то, что с такими бывает

SH>>Твоё время может кончится в любой момент, и список незаконченных дел только помешает тебе.

V>Список незаконченных дел не мешает. Он помогает жить и поддерживать бодрое и благодушное состояние. А когда помру, тем более не помешает.

Ты просто ещё не помирал

SH>>Делай что должен и будь что будет.


V>Хорошая фразочка. Проблема в том, что она особенно хороша для врачевания душ рабов и солдат. Для всех хороша, но для рабов и солдат — особенно.


??
Это же ты как раз про долг писал ??
Это должна быть твоя фраза
Делай что должно, и будь что будет
Re: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 19.01.09 10:43
Оценка:
Здравствуйте, Voblin, Вы писали:

V>С удивлением обнаружил, что не смотря на то, что вспахиваю ниву информационных технологий, о самом понятии "информация" имею довольно мутные представления. Самое печальное, что попытки найти внятную литературу по этой теме пока успехом не увенчались.


[cut]

А попробуй ещё понятие "число" раскрыть (ну и другие понятия математики) "отдельно от своего носителя".
Re: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 19.01.09 11:32
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Какие ещё у информации есть свойства? Что на эту тему можно вкурить?


Все это очень правильные и важные вопросы. Но ответа на них я пока дать не могу. Добавлю только, что понятие информации очень связано с понятием вероятности, которое тоже не удается нормально определить. И со вторым началом термодинамики, которое непонятно откуда берется (Loschmidt's paradox).
Re: Несколько дурацких вопросов по теории информации
От: AK85 Беларусь  
Дата: 19.01.09 11:40
Оценка:
Здравствуйте, Voblin, Вы писали:

Приведу свои детсадовские рассуждения:

Раз уж информация — это то что мы считаем информацией, то вся суть в методах определения ее наличия. Например из двух камней мы можем извлечь информацию о расстоянии между ними, тоже самое с полярной звездой. И я думаю вся информация была заложена в чем-то, что взорвалось 13 млрд лет назад, а далее только изменялась под действием черырех типов взаимодействия (возможно одного, но эту информацию мы пока не извлекли). И то что вы напишите этот пост можно было понять уже тогда Так же можно выделить "полезную информацию", конкретные знания, которые можно передовать, копировать, уничтожать. О них вы видимо и пишите. Очевидно что они являются проекцией вселенской информации на нашу память через призму мировоззрения. Дальше опять можно разделить информацию на собственно мировоззрение и "просто данные" что-ли. Без такого деления мне кажется познать свойства информации не возможно.
Re[2]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 19.01.09 12:43
Оценка:
Здравствуйте, Васильич, Вы писали:

В>Скорее скорость света ограничивает скорость распространения информации

Скорее скорость света в вакууме и скорость распространения информации — суть одно и то же. Потому, что, к примеру, гравитационное взаимодействие распространяется точно с такой же скоростью.
... << RSDN@Home 1.2.0 alpha rev. 677>>
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re: Несколько дурацких вопросов по теории информации
От: Tilir Россия http://tilir.livejournal.com
Дата: 19.01.09 12:55
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Оставаясь в рамках позитивной науки, можно с некоторой долей уверенности выделить следующие свойства информации:

V>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии. Если это принять, то все паранаучные рассуждения об информационном поле, глобальном информационном континууме и прочая муть сразу становятся ложными. Более того, фраза "В начале было Слово" сразу порождает еретический вопрос: "На чём было записано это Слово?".
V>2. Из точки А информация не может поступить в точку Б если между ними нет информационного канала. Если принять п.1, то это должен быть перенос либо вещества, либо энергии. Т.е. прорицатель должен принимать вещество или энергию, движущиеся в обратном направлении по оси времени.

V>Какие ещё у информации есть свойства? Что на эту тему можно вкурить?


Мне кажется первое утверждение неверно по форме. Вот скажем горит на холме костёр что даёт информацию о том, что приближается вражеская конница. Не горит при этом не значит, что не приближается, может там дозорных убили и т.п. Но ту же информацию можно получить и без костра, а например самому с подзорной трубой. Где же тут материальный носитель информации о приближении вражеской конницы, который нужно убрать, чтобы эта информация "стёрлась"? Ведь даже если убрать саму конницу, у нас всё равно останется ответ на вопрос "приближается ли вражеская конница" -- очевидно в отсутствии конницы отрицательный. И то же самое если убрать весь мир и наблюдателя и вообще всё.
Второе же утверждение типичная тавтология. Если сказать что информационный канал это нечто по чему поступает информация, то мы получим замечательное утверждение что информация не может поступить если она не может поступить. Сложно поспорить =)

V>P.S. Только попробуйте сказать, что это не имеет отношения к философии программирования!


Никакого на самом деле. Человек вскапывающий огород не обязан понимать происходящие при этом процессы упругости квантовой природы лишь бы входило по черенок. Философия программирования это больше о форме лопат и удобстве ручек, чем о химсоставе чернозёма, как мне кажется...
Re: Несколько дурацких вопросов по теории информации
От: Klapaucius  
Дата: 19.01.09 12:56
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Но ведь даже если бы мир был устроен строго механистично, в нём что, кончилась бы информация?


Если бы мир был "устроен строго механистично", то количество информации в нем от времени не зависило.
... << RSDN@Home 1.2.0 alpha 4 rev. 1110>>
'You may call it "nonsense" if you like, but I'VE heard nonsense, compared with which that would be as sensible as a dictionary!' (c) Lewis Carroll
Re[2]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 13:32
Оценка:
Здравствуйте, Tilir, Вы писали:

T>Мне кажется первое утверждение неверно по форме. Вот скажем горит на холме костёр что даёт информацию о том, что приближается вражеская конница. Не горит при этом не значит, что не приближается, может там дозорных убили и т.п. Но ту же информацию можно получить и без костра, а например самому с подзорной трубой. [...]


Горит => вражеская конница приближается.
Не горит => нет "костровой" информации о том, приближается ли вражеская конница. Бери подзорную трубу.

В любом случае информация о том, что вражеская конница приближается, если и дойдёт, то дойдёт обязательно на каком-нибудь носителе. Или на квантах света, излучённых костром, или на квантах света, отражённых от конницы, или своими ножками, в виде собственно вражеской конницы.

T>Второе же утверждение типичная тавтология. Если сказать что информационный канал это нечто по чему поступает информация, то мы получим замечательное утверждение что информация не может поступить если она не может поступить. Сложно поспорить =)


Никакой тавтологии. Говорится о том, что информация, которая есть а А и только в А, не может быть получена, обработана и использована в Б, если она не поступит из А в Б в понятной для Б форме. А поспорить, кстати, можно. См., например, квантовую телепортацию.

V>>P.S. Только попробуйте сказать, что это не имеет отношения к философии программирования!

T>Никакого на самом деле. Человек вскапывающий огород не обязан понимать происходящие при этом процессы упругости квантовой природы лишь бы входило по черенок. Философия программирования это больше о форме лопат и удобстве ручек, чем о химсоставе чернозёма, как мне кажется...

Философия тем и отличается от агрономии, что для получения ответа на вопросы "Зачем?" и "Почему?" лезет немножко глубже.
Re[3]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 19.01.09 13:34
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, Курилка, Вы писали:


К>>А попробуй ещё понятие "число" раскрыть (ну и другие понятия математики) "отдельно от своего носителя".


V>"Число" выкручивается из категории "множество".

Т.е. множество это нечто реально существующее ("отдельно от своего носителя")?

V>Объявить "информацию" категорией — рука не поднимается.

Наверное, ты не про теорию категорий? Если так, то к чему тут категории и зачем вообще?
Re[2]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 13:37
Оценка:
Здравствуйте, Klapaucius, Вы писали:

K>Если бы мир был "устроен строго механистично", то количество информации в нем от времени не зависило.


Почему? В строго механистичном мире тоже может быть источник энергии (например, внешний по отношению к этому миру), тоже могут быть незамкнутые системы, в которых идут процессы самоорганизации вплоть до возникновения разума, который на каком-то этапе тоже может воскликнуть: "WTF? Откуда это всё взялось и куда блин всё катится?"
Re[3]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 19.01.09 13:42
Оценка:
Здравствуйте, Sinclair, Вы писали:

S>Здравствуйте, Васильич, Вы писали:


В>>Скорее скорость света ограничивает скорость распространения информации

S>Скорее скорость света в вакууме и скорость распространения информации — суть одно и то же. Потому, что, к примеру, гравитационное взаимодействие распространяется точно с такой же скоростью.

Ну да, даже для квантовой телепортации требуется "классический" канал связи.
Re[3]: Несколько дурацких вопросов по теории информации
От: Klapaucius  
Дата: 19.01.09 13:45
Оценка:
Здравствуйте, Voblin, Вы писали:

K>>Если бы мир был "устроен строго механистично", то количество информации в нем от времени не зависило.

V>Почему?

Потому, что в механистическом мире для любого произвольно заданного времени t, получив полную информацию о состоянии системы мы знаем это состояние и для любого произвольного времени t'. Т.е. информации ни больше ни меньше не становится. С.м. "Демон Лапласа".

V>В строго механистичном мире тоже может быть источник энергии (например, внешний по отношению к этому миру), тоже могут быть незамкнутые системы, в которых идут процессы самоорганизации


Ну разумеется нет. В строго механистическом мире полная энергия мира постоянна. И никаких процессов самоорганизации тоже быть не может. Процессы самоорганизации — это термодинамика сильно неравновесных систем. Какая уж тут строгая механистичность?
В механистичном мире нет изменения энтропии — следовательно нет стрелы времени.
... << RSDN@Home 1.2.0 alpha 4 rev. 1110>>
'You may call it "nonsense" if you like, but I'VE heard nonsense, compared with which that would be as sensible as a dictionary!' (c) Lewis Carroll
Re[2]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 19.01.09 13:45
Оценка:
Здравствуйте, Klapaucius, Вы писали:

K>Здравствуйте, Voblin, Вы писали:


V>>Но ведь даже если бы мир был устроен строго механистично, в нём что, кончилась бы информация?


K>Если бы мир был "устроен строго механистично", то количество информации в нем от времени не зависило.


А есть доказательство факта, что количество информации во всей вселенной зависит от времени?
Re[2]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 13:48
Оценка:
Здравствуйте, AK85, Вы писали:

AK>Раз уж информация — это то что мы считаем информацией, то вся суть в методах определения ее наличия. Например из двух камней мы можем извлечь информацию о расстоянии между ними, тоже самое с полярной звездой.


Я всего лишь намекал на то, что не всё, что извлекается из инф. канала в виде информации, в этот самый канал в виде информации посылается. Иногда ведь даже отсутствие информации в канале само по себе является очень важной информацией!

AK>И я думаю вся информация была заложена в чем-то, что взорвалось 13 млрд лет назад, а далее только изменялась под действием черырех типов взаимодействия (возможно одного, но эту информацию мы пока не извлекли). И то что вы напишите этот пост можно было понять уже тогда


Привет Демону Лапласа, существующего вне пространства и времени, и кроме которого на самом деле больше ничего не существует
На самом деле, думаю, не всё так детерминировано, как иногда хочется думать.

AK>Так же можно выделить "полезную информацию", конкретные знания, которые можно передовать, копировать, уничтожать. О них вы видимо и пишите. Очевидно что они являются проекцией вселенской информации на нашу память через призму мировоззрения. Дальше опять можно разделить информацию на собственно мировоззрение и "просто данные" что-ли. Без такого деления мне кажется познать свойства информации не возможно.


Свойства информации наверняка одинаковы на всех "уровнях" — что на уровне элементарных частиц, что на уровне формирования общественного сознания.

По крайней мере, закон сохранения массы/энергии работает на всех масштабах.
Re[4]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 19.01.09 13:50
Оценка:
Здравствуйте, Klapaucius, Вы писали:

K>Здравствуйте, Voblin, Вы писали:


K>>>Если бы мир был "устроен строго механистично", то количество информации в нем от времени не зависило.

V>>Почему?

K>Потому, что в механистическом мире для любого произвольно заданного времени t, получив полную информацию о состоянии системы мы знаем это состояние и для любого произвольного времени t'. Т.е. информации ни больше ни меньше не становится. С.м. "Демон Лапласа".


Только тут ты нарвёшься на парадокс Рассела (где ты будешь держать полную информацию о состоянии системы?), так что имхо "не катит".
Re[4]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 13:52
Оценка:
Здравствуйте, Курилка, Вы писали:

V>>Объявить "информацию" категорией — рука не поднимается.

К>Наверное, ты не про теорию категорий? Если так, то к чему тут категории и зачем вообще?

Нет.

Категория — специальное, априорное понятие, используемое при построении теорий.
См. здесь.

Re[5]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 19.01.09 14:00
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, Курилка, Вы писали:


V>>>Объявить "информацию" категорией — рука не поднимается.

К>>Наверное, ты не про теорию категорий? Если так, то к чему тут категории и зачем вообще?

V>Нет.

V>

V>Категория — специальное, априорное понятие, используемое при построении теорий.
V>См. здесь.


Ну если так, то набор категорий есть просто базис твоей системы, и одни и те же события можно рассматривать в разных базисах.
Re[4]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 14:00
Оценка:
Здравствуйте, Klapaucius, Вы писали:

V>>В строго механистичном мире тоже может быть источник энергии (например, внешний по отношению к этому миру), тоже могут быть незамкнутые системы, в которых идут процессы самоорганизации


K>Ну разумеется нет. В строго механистическом мире полная энергия мира постоянна. И никаких процессов самоорганизации тоже быть не может. Процессы самоорганизации — это термодинамика сильно неравновесных систем. Какая уж тут строгая механистичность?

K>В механистичном мире нет изменения энтропии — следовательно нет стрелы времени.

Пример строго механистического детерминированного мира с внешним источником энергии — компьютерная программа, в которой не используется настоящий генератор случайных чисел (ПСЧ — разрешены). Не станете же вы утверждать, что невозможно написать программу, демонстрирующую пример самоорганизации какой-нибудь фигни?
Re[3]: Несколько дурацких вопросов по теории информации
От: Klapaucius  
Дата: 19.01.09 14:11
Оценка:
Здравствуйте, Курилка, Вы писали:

К>А есть доказательство факта, что количество информации во всей вселенной зависит от времени?


Если второе начало термодинамики универсально, то да.
Кроме того, я то говорил о механистическом мире, в котором вообще не может быть такой системы, в которой количество информации зависит от времени. Ни в масштабах вселенной, ни в каких либо других масштабах.
... << RSDN@Home 1.2.0 alpha 4 rev. 1110>>
'You may call it "nonsense" if you like, but I'VE heard nonsense, compared with which that would be as sensible as a dictionary!' (c) Lewis Carroll
Re[5]: Несколько дурацких вопросов по теории информации
От: Klapaucius  
Дата: 19.01.09 14:11
Оценка:
Здравствуйте, Курилка, Вы писали:

K>>Потому, что в механистическом мире для любого произвольно заданного времени t, получив полную информацию о состоянии системы мы знаем это состояние и для любого произвольного времени t'. Т.е. информации ни больше ни меньше не становится. С.м. "Демон Лапласа".

К>Только тут ты нарвёшься на парадокс Рассела (где ты будешь держать полную информацию о состоянии системы?), так что имхо "не катит".

Ну, это проблема, если демон лапласа работает внутри механистического мира. А на то, что количество информации не менятся это никак не влияет. Вот есть у нас n частиц, для которых мы знаем координаты и импульсы в момент t. Энергия только механическая, никакой диссипации. Это наш карманный механистический мирок на бумаге. Можно записать гамельтониан и сыграть в демона лапласа. Как тут информация от времени зависит?
... << RSDN@Home 1.2.0 alpha 4 rev. 1110>>
'You may call it "nonsense" if you like, but I'VE heard nonsense, compared with which that would be as sensible as a dictionary!' (c) Lewis Carroll
Re[5]: Несколько дурацких вопросов по теории информации
От: Klapaucius  
Дата: 19.01.09 14:36
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Пример строго механистического детерминированного мира с внешним источником энергии — компьютерная программа, в которой не используется настоящий генератор случайных чисел (ПСЧ — разрешены). Не станете же вы утверждать, что невозможно написать программу, демонстрирующую пример самоорганизации какой-нибудь фигни?


Ну это и будет псевдосамоорганизация в таком же точно смысле, в котором числа — псевдослучайные. Система будет эволюционировать полностью детерминированно, точек бифуркации не будет. Никакой новой информации не появится.
Попробуете написать программу, которая выдает разные результаты при одном и том же сиде для ГПСЧ?
... << RSDN@Home 1.2.0 alpha 4 rev. 1110>>
'You may call it "nonsense" if you like, but I'VE heard nonsense, compared with which that would be as sensible as a dictionary!' (c) Lewis Carroll
Re: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 19.01.09 14:37
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Может быть, "информация" — это целиком и полностью искусственное понятие, и рассуждать о его свойствах — это не многим лучше чем спорить о количестве демонов, помещающихся на кончике иглы? Однако, похоже, что сама суть понятия "информация" прошита куда-то вглубь структуры пространства-времени:

V>1. Есть мнение, что скорость света в вакууме ограничена именно скоростью распространения информации. Если бы информация распространялась мгновенно, изменение электрического поля по известным уравнениям Максвелла мгновенно порождало бы изменение магнитного поля во всей Вселенной, и никаких электромагнитных волн не возникало бы в принципе.

Угу. Во всяком случае именно такую отмазку используют, чтобы как-то втиснуть парадокс Эйнштейна-Подольского-Розена в рамки теории относительности. Говорят, что, мол, изменяться всё изменяется _мгновенно_, но передать таким способом информацию невозможно, т.к. изменяется _случайно_.

Кстати, это _случайное_ изменение -- это порождение _новой_ информации. Только не спрашивай "информации о чём" Но, возможно, именно на этом основано, скажем, мышление?

V>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии. Если это принять, то все паранаучные рассуждения об информационном поле, глобальном

информационном континууме и прочая муть сразу становятся ложными. Более того, фраза "В начале было Слово" сразу порождает еретический вопрос: "На чём было записано это Слово?".

А поле -- это вещество или энергия?

А пространство это что такое? А время? Так что "то, что было в начале", имхо, лучше пока не тревожить

V>P.S. Только попробуйте сказать, что это не имеет отношения к философии программирования!


Не имеет. Но кого это волнует?
Делай что должно, и будь что будет
Re[2]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 15:00
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Кстати, это _случайное_ изменение -- это порождение _новой_ информации. Только не спрашивай "информации о чём" Но, возможно, именно на этом основано, скажем, мышление?


Как правило, "случайное" изменение — это результат воздействия на объект шума, который является результатом суперпозиции такого количество информации, что никакой информации из него извлечь уже нельзя. Мышление же на этом не основано (Пенроуза уважаю, но в своих рассуждениях он многократно накосячил). Зачем нашему мозгу генератор случайных чисел (источник бесполезной недоинформации), если через органы чувств хлещет такой сумасшедший поток полезных (и не очень) данных, что только успевай анализировать и принимать решения?

V>>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии. Если это принять, то все паранаучные рассуждения об информационном поле, глобальном информационном континууме и прочая муть сразу становятся ложными. Более того, фраза "В начале было Слово" сразу порождает еретический вопрос: "На чём было записано это Слово?".


SH>А поле -- это вещество или энергия?

SH>А пространство это что такое? А время? Так что "то, что было в начале", имхо, лучше пока не тревожить

Если есть пример информационного объекта, существующего без носителя, ю а вэлкам.
Re[3]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 19.01.09 15:38
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Как правило, "случайное" изменение — это результат воздействия на объект шума, который является результатом суперпозиции такого количество информации, что никакой информации из него извлечь уже нельзя. Мышление же на этом не основано (Пенроуза уважаю, но в своих рассуждениях он многократно накосячил). Зачем нашему мозгу генератор случайных чисел (источник бесполезной недоинформации), если через органы чувств хлещет такой сумасшедший поток полезных (и не очень) данных, что только успевай анализировать и принимать решения?


Не, не, тут никакого шума. Почитай про ЭПР-парадокс.

Анализировать и принимать решения -- это модель поведения детерминированной реагирующей системы.

V>Если есть пример информационного объекта, существующего без носителя, ю а вэлкам.


Когда повторишь Большой Взрыв -- отпишись

Ок. Что такое "информационный объект"? Пока она у меня в мозгу -- кто там носитель? Не знаю. Информация _проявляется_ структурируя носитель. Чёрточки на бумажке или амплитуда сигнала, или колебания воздуха, ещё что-нибудь такое. Но это уже _высказанное_ слово. Ну, понятно, что записанное это не тоже самое, что было в голове, да? Асимметричный дуализм языкового знака, и т.п.?

Дальше, что является для него носителем -- ясен пень -- вселенная. Значит ли это, что к тому моменту вселенная уже была? Вообще-то нет, вселенная это уже результат структуризации. Да и словосочетание "тот момент" подразумевает время, которое тоже под сомнением.

"Вначале было Слово" это о том, что в момент сингулярности (если я правильно использую это слово) произошёл не случайный прорыв, а уже структурированный. И даже скорее о том, что он был результатом структуризации и является проявлением, развёртыванием Слова в физический мир.
Делай что должно, и будь что будет
Re[3]: Несколько дурацких вопросов по теории информации
От: Tilir Россия http://tilir.livejournal.com
Дата: 19.01.09 15:46
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, Tilir, Вы писали:


T>>Мне кажется первое утверждение неверно по форме. Вот скажем горит на холме костёр что даёт информацию о том, что приближается вражеская конница. Не горит при этом не значит, что не приближается, может там дозорных убили и т.п. Но ту же информацию можно получить и без костра, а например самому с подзорной трубой. [...]


V>Горит => вражеская конница приближается.

V>Не горит => нет "костровой" информации о том, приближается ли вражеская конница. Бери подзорную трубу.

Какой-то у нас с вами разный подход к информации. Для меня бит ноль это такая же информация как и бит один, а значит каждая точка во Вселенной бесконечно информационно ёмка -- она содержит сразу всю информацию о том чего там нет, то есть по сути информацию обо всей Вселенной.
Более того. Возьмём число pi. Которое 3.1415926... Надеюсь вы не будете спорить что в его полной записи в двоичном виде содержится ваша полная биография в формате txt, включая всё ваше прошлое и будущее. Вы просто не знаете с какого знака читать. И где тут материальный носитель на котором должна придти эта информация? Задумайтесь: всё ваше резюме можно отсылать работодателю просто как номер знака pi с которого оно начинается. И вся вот эта наша с вами дискуссия тоже там.
Re[2]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 19.01.09 15:58
Оценка:
Здравствуйте, nikov, Вы писали:

N>Здравствуйте, Voblin, Вы писали:


N>И я спрошу кое-что: создают ли математики информацию во время своей работы? Или может быть, они извлекают ее откуда-то? И где она была до этого?


Я бы ещё добавил: и отличаются ли они в смысле создания информации от физиков-теоретиков?
Re[6]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 16:17
Оценка:
Здравствуйте, Klapaucius, Вы писали:

K>Ну это и будет псевдосамоорганизация в таком же точно смысле, в котором числа — псевдослучайные.

Почему "псевдо"? Самая настоящая самоорганизация! То, что вся система полностью детерминирована и сама на себя замкнута, знаем только мы, Боги-программисты и наш демонический компьютер. Для подсистем этой системы будет существовать внешний мир, с которым они обмениваются "веществом" и "энергией" (а на самом деле, всего лишь только информацией). И сидя под "солнцем", "живчики", населяющие наш искусственный мир, будут вести беседы о "будущем", строя какие-то смешные планы, помогать друг другу, обжуливать друг друга. А мы, подлые такие, скажем "kill process", и пойдём домой.

K>Система будет эволюционировать полностью детерминированно, точек бифуркации не будет. Никакой новой информации не появится.

Абсолютно согласен. Если мы в условиях задачи просили полностью детерминированную систему, то такую мы и получим. Если, конечно, закодим аккуратно. Никакой новой информации действительно не будет. Всё поведение системы описывается алгоритмом и набором начальных данных.

K>Попробуете написать программу, которая выдает разные результаты при одном и том же сиде для ГПСЧ?

Не буду даже пытаться
Re[7]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 19.01.09 16:36
Оценка:
Здравствуйте, Voblin, Вы писали:

K>>Система будет эволюционировать полностью детерминированно, точек бифуркации не будет. Никакой новой информации не появится.

V>Абсолютно согласен. Если мы в условиях задачи просили полностью детерминированную систему, то такую мы и получим. Если, конечно, закодим аккуратно. Никакой новой информации действительно не будет. Всё поведение системы описывается алгоритмом и набором начальных данных.

Протестую. Простой пример: пишем программу, которая ответит на вопрос "чему равно 10001-е по счету простое число?". Программа абсолютно детерминирована, и ответ казалось бы содержится в ее коде и данных, однако пока мы ее не запустим, он нам неизвестен. И когда программа выдаст ответ, это уменьшит наше незнание и определенно сообщит нам информацию. Конечно, при условии, что мы не знали ответ раньше.
Скажете, это не новая информация? Тогда, если подумать, новой информации вообще не существует, она вся "старая".
Re[2]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 16:47
Оценка:
Здравствуйте, nikov, Вы писали:

N>И я спрошу кое-что: создают ли математики информацию во время своей работы? Или может быть, они извлекают ее откуда-то? И где она была до этого?


Насчёт больших серьёзных математиков ничего не скажу, но первоклашки, решая пример "2 зайчика + 3 белочки", информацию точно не создают. Хотя, производя вычисление на пальцах, наверняка думают, что извлекают её из этих самых пальцев.
Re[6]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 19.01.09 16:51
Оценка:
Здравствуйте, Klapaucius, Вы писали:

K>Здравствуйте, Курилка, Вы писали:


K>>>Потому, что в механистическом мире для любого произвольно заданного времени t, получив полную информацию о состоянии системы мы знаем это состояние и для любого произвольного времени t'. Т.е. информации ни больше ни меньше не становится. С.м. "Демон Лапласа".

К>>Только тут ты нарвёшься на парадокс Рассела (где ты будешь держать полную информацию о состоянии системы?), так что имхо "не катит".

K>Ну, это проблема, если демон лапласа работает внутри механистического мира. А на то, что количество информации не менятся это никак не влияет. Вот есть у нас n частиц, для которых мы знаем координаты и импульсы в момент t. Энергия только механическая, никакой диссипации. Это наш карманный механистический мирок на бумаге. Можно записать гамельтониан и сыграть в демона лапласа. Как тут информация от времени зависит?


Это будет уже не замкнутый мир, так что снова "не катит".
Re[4]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 17:15
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Не, не, тут никакого шума. Почитай про ЭПР-парадокс.


Прочитал. Не впечатлило. Требование наличия канала между А и Б пошатнулось, но устояло.

SH>Анализировать и принимать решения -- это модель поведения детерминированной реагирующей системы.


Ага.

SH>Когда повторишь Большой Взрыв -- отпишись


С ума сошёл???? Даже если маленький бабахну, меня менты повяжут!
А если серьёзно, то думаю, что для поисков природы информации не надо нам ходить к Большому Взрыву.

SH>Ок. Что такое "информационный объект"? Пока она у меня в мозгу -- кто там носитель? Не знаю.


Я тоже не знаю. Но, думаю, если суну голову под дорожный каток, информация сотрётся. Впрочем, у верующих людей другое мнение на этот счёт.

SH>Информация _проявляется_ структурируя носитель. Чёрточки на бумажке или амплитуда сигнала, или колебания воздуха, ещё что-нибудь такое. Но это уже _высказанное_ слово. Ну, понятно, что записанное это не тоже самое, что было в голове, да? Асимметричный дуализм языкового знака, и т.п.?


Информация — это не вещество и не энергия. Физические процессы, происходящие на квантовом уровне (или глубже, на уровне "струн", или ещё глубже) в своём течении порождают макромир. И везде, и в "макро", и в "микро", можно наблюдать структурирование. Его кто-то сознательно вылепливает? Да больно надо! Просто в состоянии устойчивого равновесия системы задерживаются на дольше, чем в состоянии неустойчивого. Просто Вселенная сложена не из круглых, и не из квадратных кирпичиков. Просто сложилось так, что согласно неумолимым математическим законам постоянно самообновляющаяся динамическая система, именуемая "Жизнь", оказалась устойчивее статичных гор и континентов.
Re[5]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 19.01.09 17:32
Оценка:
Здравствуйте, Voblin, Вы писали:

SH>>Не, не, тут никакого шума. Почитай про ЭПР-парадокс.


V>Прочитал. Не впечатлило. Требование наличия канала между А и Б пошатнулось, но устояло.


Ну тут поинт в том, что либо это мгновенный канал, и тогда Эйнштейв вертится в гробу, либо это некая "истинная случайность". Вот истинная-истинная, никакой связи. Интересно, что время события они информацией не считают.

SH>>Анализировать и принимать решения -- это модель поведения детерминированной реагирующей системы.

V>Ага.

Ну вот, а я предложил механизм недетерминированности.

V>А если серьёзно, то думаю, что для поисков природы информации не надо нам ходить к Большому Взрыву.


Слушай, ну ты же сам начал с "Вначале было Слово". Я бы в эти дебри ни за что не полез, это интересный, но очень-очень крайний случай. С тех пор ничего такого не было, насколько я знаю.

V>Я тоже не знаю. Но, думаю, если суну голову под дорожный каток, информация сотрётся. Впрочем, у верующих людей другое мнение на этот счёт.


Ну вот видишь.

Ты отождествляешь информацию с носителем потому что _информация_на_носителе_ это то, что можно передать другому. Потом ты понимаешь, что там где-то есть процесс интерпретации, который очень зависит от интерпретирующего субъекта. С той же полярной звездой. Или чёрточками на бумаге. Для меня это набор закорючек, а для китайца -- письмо. А для японца -- письмо, иероглифическое, но не японское. А я даже не могу сказать, точно ли это "письмо" хоть для кого-то. Может это для всех "набор закорючек".

И это мы не говорим о передаче, ха-ха, "смысла". Что вкладывал автор письма, что прочёл читатель? Ну и т.п. Одну и ту же информацию можно передать по-разному. И наоборот, одинаковые носители могут нести разную информацию. "Доктор сказал резать резать" -- помнишь такой анекдот?

V>Информация — это не вещество и не энергия. Физические процессы, происходящие на квантовом уровне (или глубже, на уровне "струн", или ещё глубже) в своём течении порождают макромир. И везде, и в "макро", и в "микро", можно наблюдать структурирование. Его кто-то сознательно вылепливает? Да больно надо! Просто в состоянии устойчивого равновесия системы задерживаются на дольше, чем в состоянии неустойчивого. Просто Вселенная сложена не из круглых, и не из квадратных кирпичиков. Просто сложилось так, что согласно неумолимым математическим законам постоянно самообновляющаяся динамическая система, именуемая "Жизнь", оказалась устойчивее статичных гор и континентов.


Ну, это пошла идеология, а не дискуссия об информации. Я же всего лишь объяснил тебе свою точку зрения на то, что означает фраза "Вначале было Слово".
Единственное, обращаю твоё внимание, что это именно _идеология_, т.е. доказательная база утверждения "просто сложилось", хм, сомнительна. Впрочем как и у других версий.
Делай что должно, и будь что будет
Re[8]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 17:48
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>Протестую. Простой пример: пишем программу, которая ответит на вопрос "чему равно 10001-е по счету простое число?". Программа абсолютно детерминирована, и ответ казалось бы содержится в ее коде и данных, однако пока мы ее не запустим, он нам неизвестен. И когда программа выдаст ответ, это уменьшит наше незнание и определенно сообщит нам информацию. Конечно, при условии, что мы не знали ответ раньше.


Программа скопирует число, уже содержащееся в исходных данных, в наш мозг.

DM>Скажете, это не новая информация? Тогда, если подумать, новой информации вообще не существует, она вся "старая".


Вынужден огорчить, но она вся старая. Допустим, я использовал это число как пароль для защиты файла. Передаю другу файл и говорю ему пароль: "10001-е по счету простое число". Всё, друг сможет прочитать файл потому что пароль я ему сообщил. Немножко садистским образом, но всё же сообщил.
Re[6]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 19.01.09 17:56
Оценка:
Здравствуйте, SergH, Вы писали:

SH> Может это для всех "набор закорючек".


Может быть это для _автора_ набор закорючек, а для китайца -- письмо
Делай что должно, и будь что будет
Re[6]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 18:16
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Ну тут поинт в том, что либо это мгновенный канал, и тогда Эйнштейв вертится в гробу, либо это некая "истинная случайность". Вот истинная-истинная, никакой связи. Интересно, что время события они информацией не считают.


V>>....

SH>Ну вот, а я предложил механизм недетерминированности.

А я что? Где-то ратовал за кондовую механистичную детерминированность? Мне просто непонятно, как весь этот бардак с квантовыми неопределённостями может служить источником информации. Источником шума в канале связи — пожалуйста, а самым-самым первичным источником "информации-сырца" — увольте.

SH>Ты отождествляешь информацию с носителем потому что _информация_на_носителе_ это то, что можно передать другому. Потом ты понимаешь, что там где-то есть процесс интерпретации, который очень зависит от интерпретирующего субъекта. С той же полярной звездой. Или чёрточками на бумаге. Для меня это набор закорючек, а для китайца -- письмо. А для японца -- письмо, иероглифическое, но не японское. А я даже не могу сказать, точно ли это "письмо" хоть для кого-то. Может это для всех "набор закорючек".


Немножко не так. Если мне нужно получить информацию, то я должен найти носитель, на котором она записана. Или не найти носитель, и тем самым извлечь информацию из его отсутствия.

SH>И это мы не говорим о передаче, ха-ха, "смысла". Что вкладывал автор письма, что прочёл читатель? Ну и т.п. Одну и ту же информацию можно передать по-разному. И наоборот, одинаковые носители могут нести разную информацию. "Доктор сказал резать резать" -- помнишь такой анекдот?


Упс... Этим самым мы переходим к тому, что из одного и того же инф. канала разные получатели могут извлекать разную информацию. Я, например, очень люблю смотреть новости по 1-му каналу (ТВ), но уверен, что извлекаю из них совсем не ту информацию, которую до меня пытается донести диктор.

V>>Информация — это не вещество и не энергия. Физические процессы, происходящие на квантовом уровне (или глубже, на уровне "струн", или ещё глубже) в своём течении порождают макромир. И везде, и в "макро", и в "микро", можно наблюдать структурирование. Его кто-то сознательно вылепливает? Да больно надо! [...]

SH>Ну, это пошла идеология, а не дискуссия об информации. Я же всего лишь объяснил тебе свою точку зрения на то, что означает фраза "Вначале было Слово".

Да уж, увлёкся бездоказательной измышлятиной. Надо было ограничиться тем, что информация — это не вещество и не энергия.
Re[7]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 19.01.09 18:32
Оценка:
Здравствуйте, Voblin, Вы писали:

V>А я что? Где-то ратовал за кондовую механистичную детерминированность? Мне просто непонятно, как весь этот бардак с квантовыми неопределённостями может служить источником информации. Источником шума в канале связи — пожалуйста, а самым-самым первичным источником "информации-сырца" — увольте.


Ммм.. Могу толкнуть бездоказательную идею
Только, боюсь, она не найдёт понимания.

V>Немножко не так. Если мне нужно получить информацию, то я должен найти носитель, на котором она записана. Или не найти носитель, и тем самым извлечь информацию из его отсутствия.


Очень ограниченный набор видов "работы с информацией". А если тебе надо передать кому-то "информацию"?

V>Да уж, увлёкся бездоказательной измышлятиной. Надо было ограничиться тем, что информация — это не вещество и не энергия.


Угу.
Делай что должно, и будь что будет
Re[2]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 19.01.09 18:33
Оценка:
Здравствуйте, Васильич, Вы писали:

В>Точно так же, как мы умеем работать со временем, с электрическим и магнитным полями, но при этом мало кто сможет обьяснить что же это такое


Может быть, мы и не можем до конца чётко определить, что это такое — электрические и магнитные поля, но мы можем нарисовать уравнения Максвелла, и жить становится проще.

В>Кстати, энтропия — тоже не абсолютное понятие. Не думаю, что можно сказать, что Вселенная содержит в себе ровно N бит энтропии. И чтобы ты стал богом — достаточно передать тебе эти N бит. Скорее энтропия характеризует не вселенную, а именно мыслящий объект. То есть, нет никакого первичного информационного потока, есть лишь осмысливающие его субъекты.


Антропоцентризм — зло!
Если мы не будем слишком чванливыми и самодовольными, то обработку информации найдём не только у сиятельного Хомо Сапиенса, но и во всём остальном животном мире. И в растительном мире её можно встретить в каждом изгибе веточки. В конце концов, посмотрите на снежинки — почему они все, как сговорившись, имеют такую странную форму, и не хотят, собаки такие, принимать форму шара, единственную приличествующую объектам неживого мира?

В>Вот и пример того, что информации в физическом мире нет вообще. Если кто-то смог сопоставить тот факт, что Полярная звезда и направление на север связаны — для него эти кванты уже несут информации. Для других — не несут ровным счетом ничего. Если бы информация была абсолютным понятием.. хых.. открывались бы воистину бездонные перспективы


Когда свет полярной звезды попадает на камень, то камень лишь совсем чуть-чуть нагревается, и из своего состояния устойчивого равновесия не выходит. Отыскивая на небе Полярную звезду, я искусственно ввожу себя в состояние настолько неустойчивого равновесия, что этого мизерного энергетического воздействия достаточно для того, чтобы я двинулся не в том направлении, в котором до этого шёл. Что же до энергии, принесённой этими квантами, то она сначала вызвала химическое превращение, а потом превратилась в тепло. Ровно в том же количестве, что и в камне.

V>>В общем случае информационные объекты нельзя точно локализовать ни в пространстве, ни во времени. [...]

В>Только в наших головах

У соснового ростка нет головы, но информацию о недостаточном уровне освещённости он интерпретирует для себя вполне правильно: срочно расти вверх!

В>Написав это все, подумал — нет, информация это не искусственное понятие. Парралели с физикой, сопоставление с известными нам величинами говорит о том, что эти понятия вполне могут существовать (быть предусмотренными) в структуре нашей вселенной. Только характеризуют они не физические свойства объектов, а ту самую непознанную область, которую мы называем "мышлением", и применимы только к тем объектам, у которых прописан custom attribute [MindEnabled]


Весьма соблазнительно было бы пойти за свойствами информации в "непознанную область". Но это навряд ли полезно. Во-первых, процессы, которые можно было бы отнести к чисто информационным встречаются не только в наших мозгах, но и во всём остальном живом и неживом мире. А во-вторых, лезть в эту чисто информационную "непознанную область", не вооружившись базовыми понятиями и не поняв базовых законов — чистое безумие.
Re[11]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 19.01.09 18:39
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>Здравствуйте, deniok, Вы писали:


D>>Хорошо, а если я сообщаю ему пароль так: "первое n, для которого hailstone sequence не сходится к единице"? Можно ли сказать, что то, что он смог воспользоваться паролем, не содержит новой информации?


DM>Сначала расскажите, что такое новая информация. Та, которую хз как получить?


Ну вот докажут, что P=NP. Или, более вероятно, что P\=NP. Это не будет новой информацией?
Re[3]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 19.01.09 18:49
Оценка:
Здравствуйте, deniok, Вы писали:

D>Здравствуйте, nikov, Вы писали:


N>>Здравствуйте, Voblin, Вы писали:


N>>И я спрошу кое-что: создают ли математики информацию во время своей работы? Или может быть, они извлекают ее откуда-то? И где она была до этого?


D>Я бы ещё добавил: и отличаются ли они в смысле создания информации от физиков-теоретиков?


Кто-то же из известных высказывал мнение, что математика лишь составляющая физики?
Не академик Арнольд случаем?
Re[4]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 19.01.09 18:52
Оценка:
Здравствуйте, Курилка, Вы писали:

К>Кто-то же из известных высказывал мнение, что математика лишь составляющая физики?

К>Не академик Арнольд случаем?

Да, вроде он.

Но я не согласен: по-моему, физическая и математическая истины — разные вещи.
Re[2]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 19.01.09 18:57
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>Из занимательной литературы на эту тему есть как минимум Пенроуз и книжка "Динамика и информация" (забыл авторов). Рекомендую также курить кванты, описание квантовой энтропии и вопросов измерения (коллапс волновой функции, декогеренция и т.п.).


Ммм, Пенроуз безотносительно конкретной книги?
Re[3]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 19.01.09 19:17
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Антропоцентризм — зло!

V>Если мы не будем слишком чванливыми и самодовольными, то обработку информации найдём не только у сиятельного Хомо Сапиенса, но и во всём остальном животном мире. И в растительном мире её можно встретить в каждом изгибе веточки. В конце концов, посмотрите на снежинки — почему они все, как сговорившись, имеют такую странную форму, и не хотят, собаки такие, принимать форму шара, единственную приличествующую объектам неживого мира?

Классно, сначала говоришь "антропоцентризм — зло", а потом, а потом "можно встретить", т.е. обращаешься опять к тому, что встречать её будет тот же самый "хомо сапиенс".
Я склоняюсь к тому, что об информации без субъекта её интерпретирующего (т.е. хомо сапиенса) рассуждать нет никакого смысла.
Re[5]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 19.01.09 19:20
Оценка:
Здравствуйте, deniok, Вы писали:

D>Здравствуйте, Курилка, Вы писали:


К>>Кто-то же из известных высказывал мнение, что математика лишь составляющая физики?

К>>Не академик Арнольд случаем?

D>Да, вроде он.


D>Но я не согласен: по-моему, физическая и математическая истины — разные вещи.


"Нутром чую", или можешь как-нибудь хоть немного аргументировать?
P.S. Я тоже скорее несогласен, но немного "колеблюсь"
Re[2]: Несколько дурацких вопросов по теории информации
От: AndrewVK Россия http://blogs.rsdn.org/avk
Дата: 19.01.09 19:49
Оценка:
Здравствуйте, Васильич, Вы писали:

В>Информация не есть самостоятельная характеристика объекта. Взамен ее есть энтропия. Информационная энтропия — мера неопределенности знаний субъекта об окружающем его мире. Эсли энтропия равна нулю — субъект обладает идеальным знанием обо всем окружающем. Если энтропия равна бесконечности — субъект не знает об окружающем его мире ровным счетом ничего. Информация есть мера изменения энтропии субъекта. Если провести аналогии с физикой, то энтропия — это энергия, а информация — работа.


Плохая у тебя попытка вышла. Во-первых энтропия не может быть бесконечной, она по определению больше нуля и меньше единицы. Во-вторых максимальной энтропии соответствует максимальная информация, поэтому белый шум (энтропия = 1) не сжимается, а постоянный неизменяющийся сигнал (энтропия = 0) сжимается почти до нуля.
Аналогия тоже негодная. Если Ктулху еще не окончательно заховал мой моск, информация равна произведению энтропии и двоичного логарифма от количества возможных состояний системы.
... << RSDN@Home 1.2.0 alpha 4 rev. 1132 on Windows Vista 6.0.6001.65536>>
AVK Blog
Re[7]: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 19.01.09 21:01
Оценка:
Здравствуйте, deniok, Вы писали:

D>В математике истинно то утверждение, которое выводится из определенной системы аксиом по заданным правилам вывода. При этом, конечно, следует доказать непротиворечивость получающейся теории — неприятно, когда одно и то же утверждение истинно и ложно одновременно


Но так как доказать непротиворечивость не получается, приходится придумывать теории, непротиворечивость которых очевидна и подтверждается опытом.
Re[8]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 19.01.09 21:05
Оценка:
Здравствуйте, nikov, Вы писали:

N>Но так как доказать непротиворечивость не получается, приходится придумывать теории, непротиворечивость которых очевидна и подтверждается опытом.


Никто не обещал, что будет легко
Re[9]: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 19.01.09 21:11
Оценка:
Здравствуйте, deniok, Вы писали:

N>>Но так как доказать непротиворечивость не получается, приходится придумывать теории, непротиворечивость которых очевидна и подтверждается опытом.


D>Никто не обещал, что будет легко


А еще можно просто присоединить к теории аксиому о ее непротиворечивости (или даже аксиому мета(omega)-рефлексии, как сейчас модно делать), и непротиворечивость исходной теории становится доказуемой. Но вот непротиворечивость новой, расширенной теории становится открытым вопросом.
Re[2]: Несколько дурацких вопросов по теории информации
От: maggot  
Дата: 19.01.09 22:07
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Угу. Во всяком случае именно такую отмазку используют, чтобы как-то втиснуть парадокс Эйнштейна-Подольского-Розена в рамки теории относительности. Говорят, что, мол, изменяться всё изменяется _мгновенно_, но передать таким способом информацию невозможно, т.к. изменяется _случайно_.


Квантовая запутанность?
Наверное имеется ввиду, что может измениться, а может и нет.
Иначе, любое изменение есть информация.
Re: Несколько дурацких вопросов по теории информации
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 19.01.09 22:14
Оценка:
Намешал всего в кучу: тёплое с мягким, мухи с котлетами.

V>Не понятно, можем ли мы создавать информацию, но об этом позже. А вот о том, что это собственно такое — информация и каковы её свойства — полные непонятки.


С чего бы это у информации были свойства? Чем они меряются? Информацией?

V>У информации весьма сложные взаимоотношения с объективной реальностью. С одной стороны, бывает так, что информация объективно существует, и бывает так, что она объективно не существует. Например, я твёрдо уверен, что существует информация, называемая "А.С.Пушкин. Повести Белкина.", хотя, к своему стыду, в свой мозг через органы чувств я её не впитывал. Я могу купить эту книжку сегодня, могу — завтра, могу скачать её из Интернета, могу прослушать аудиокнигу. В любом случае, это будет один и тот же текст. Потому что этот текст когда-то был написан и сумел до нас дойти через множество материальных носителей в неизменном виде. А вот информации "А.С.Пушкин. Повести Грелкина." не существует. Объективно не существует. И даже бесполезно пытаться её найти.


Перепутал "объективно" с "субъективно".

V>Может быть, "информация" — это целиком и полностью искусственное понятие, и рассуждать о его свойствах — это не многим лучше чем спорить о количестве демонов, помещающихся на кончике иглы?


Ангелов.

V>1. Есть мнение, что скорость света в вакууме ограничена именно скоростью распространения информации.


Это мнение существовало до получения конденсата Бозе-Эйнштейна. Потом все запутались А тут ещё и гравитационное взаимодействие

V>2. Что бы нам ни говорили полубезумные провидцы, ось времени, по которой мы все путешествуем — это именно тот вектор, по которому движется информация. И в обратную сторону не ходит. По крайней мере, в воспроизводимых экспериментах.


Ну в общем да. Чёрную дыру воспроизвести довольно трудно

V>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии.

Или потенциала поля (какого-нибудь из)
А он ещё, собака, и относителен часто

V>Если это принять, то все паранаучные рассуждения об информационном поле, глобальном информационном континууме и прочая муть сразу становятся ложными. Более того, фраза "В начале было Слово" сразу порождает еретический вопрос: "На чём было записано это Слово?".


На Сингулярности

V>2. Из точки А информация не может поступить в точку Б если между ними нет информационного канала. Если принять п.1, то это должен быть перенос либо вещества, либо энергии.


А утяжелили. Б стал притягиваться сильнее. Что перенесли?

V>Какие ещё у информации есть свойства? Что на эту тему можно вкурить?


А тебе не хватит?
... << RSDN@Home 1.2.0 alpha 4 rev. 1136>>
Re[3]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 19.01.09 22:17
Оценка:
Здравствуйте, maggot, Вы писали:

M>Квантовая запутанность?

M>Наверное имеется ввиду, что может измениться, а может и нет.
M>Иначе, любое изменение есть информация.

Вот нифига не компетентен в этой области.
Но, насколько я понял, если бы оно не менялось, нарушался бы принцип неопределённости Гейзенберга.

Они откуда-то сделали вывод, что он _не_ нарушается. Значит они смогли детектировать факт изменения. Значит случаи осталось_как_было/изменилось отличимы. Не знаю как Это вопрос к постановке эксперимента.
Делай что должно, и будь что будет
Re[2]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 19.01.09 22:30
Оценка:
Здравствуйте, VGn, Вы писали:

VGn>Это мнение существовало до получения конденсата Бозе-Эйнштейна. Потом все запутались А тут ещё и гравитационное взаимодействие


А почему запуталось? Что такое конденсат Бозе-Эйнштейна я прочитал.
Делай что должно, и будь что будет
Re[4]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 19.01.09 22:41
Оценка:
Здравствуйте, VGn, Вы писали:

VGn>Очень просто: Частиц много. Состояние одно. Развели на большоё расстояние. Изменили — изменились все частицы. Мгновенно (доказано). Значит передача информации мгновенна? Или это не передача вовсе? Тогда что? И главное как воспринимать тот факт, что физически таким образом информацию замечательно можно ПЕРЕДАВАТЬ?


Жеесть какая! Почему-то об этом не упомянуто в тех нескольких статейках, которые я успел посмотреть.

Т.е. можно, гм, сделать конденсат, разделить на две части, поместить в коробочки, развести их далеко-далеко и говорить в трубочку на этом конце, а на том будет в такт вибрировать? А ссылки есть?
Делай что должно, и будь что будет
Re[5]: Несколько дурацких вопросов по теории информации
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 19.01.09 23:09
Оценка:
SH>Т.е. можно, гм, сделать конденсат, разделить на две части, поместить в коробочки, развести их далеко-далеко и говорить в трубочку на этом конце, а на том будет в такт вибрировать? А ссылки есть?

Искал. Искал. Не нашёл.
В прошлом году было упоминание в Компьютерре бумажной. Вроде даже два успешных эксперимента было от независимых групп учёных. На установках в специальных экранированных колодцах на большом расстоянии друг от друга с синхронизированными атомными часами.
... << RSDN@Home 1.2.0 alpha 4 rev. 1136>>
Re[6]: Несколько дурацких вопросов по теории информации
От: maggot  
Дата: 20.01.09 00:26
Оценка:
Здравствуйте, VGn, Вы писали:

SH>>Т.е. можно, гм, сделать конденсат, разделить на две части, поместить в коробочки, развести их далеко-далеко и говорить в трубочку на этом конце, а на том будет в такт вибрировать? А ссылки есть?


VGn>Искал. Искал. Не нашёл.

VGn>В прошлом году было упоминание в Компьютерре бумажной. Вроде даже два успешных эксперимента было от независимых групп учёных. На установках в специальных экранированных колодцах на большом расстоянии друг от друга с синхронизированными атомными часами.
Вот статья http://www.computerra.ru/focus/314414/
Re[7]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 20.01.09 00:31
Оценка:
Здравствуйте, maggot, Вы писали:

M>Вот статья http://www.computerra.ru/focus/314414/


Чорт. Я явно недостаточно умён чтобы понять, почему из написанного следует

SH>>>Т.е. можно, гм, сделать конденсат, разделить на две части, поместить в коробочки, развести их далеко-далеко и говорить в трубочку на этом конце, а на том будет в такт вибрировать?

Делай что должно, и будь что будет
Re[7]: Несколько дурацких вопросов по теории информации
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 20.01.09 00:49
Оценка:
VGn>>Искал. Искал. Не нашёл.

M>Вот статья http://www.computerra.ru/focus/314414/


Ещё были.
У них вообще в новостях часто про конденсат Бозе-Эйнштейна заметки пробегали.
... << RSDN@Home 1.2.0 alpha 4 rev. 1136>>
Re[8]: Несколько дурацких вопросов по теории информации
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 20.01.09 00:49
Оценка:
SH>Чорт. Я явно недостаточно умён чтобы понять, почему из написанного следует

SH>

SH>>>>Т.е. можно, гм, сделать конденсат, разделить на две части, поместить в коробочки, развести их далеко-далеко и говорить в трубочку на этом конце, а на том будет в такт вибрировать?


Ну телеграф и телепортация немного разные принципы. Ты не согласен, что и то и другое передача информации?
... << RSDN@Home 1.2.0 alpha 4 rev. 1136>>
Re[9]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 20.01.09 00:56
Оценка:
Здравствуйте, VGn, Вы писали:

VGn>Ну телеграф и телепортация немного разные принципы. Ты не согласен, что и то и другое передача информации?


Я даже не понял, где тут передача информации, честно говоря...
Делай что должно, и будь что будет
Re[4]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 20.01.09 02:16
Оценка:
Здравствуйте, Курилка, Вы писали:

V>>Антропоцентризм — зло!

V>>Если мы не будем слишком чванливыми и самодовольными, то обработку информации найдём не только у сиятельного Хомо Сапиенса, но и во всём остальном животном мире. И в растительном мире её можно встретить в каждом изгибе веточки. В конце концов, посмотрите на снежинки — почему они все, как сговорившись, имеют такую странную форму, и не хотят, собаки такие, принимать форму шара, единственную приличествующую объектам неживого мира?

К>Я склоняюсь к тому, что об информации без субъекта её интерпретирующего (т.е. хомо сапиенса) рассуждать нет никакого смысла.


Для определения (количества) информации нужен субъект, но необязательно субъектом должен быть человек. Мой кот совершенно точно воспринимает информацию о том, готовится ли ужин. А архиватор FreeArc замечательно извлекает и использует информацию из одних данных для сжатия других. А вот примеры со снежинкой и растением мимо кассы — они просто следуют физическим законам, никаких решений не принимают и информацию не обрабатывают.
Re[9]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 20.01.09 02:50
Оценка:
Здравствуйте, Voblin, Вы писали:

DM>>Протестую. Простой пример: пишем программу, которая ответит на вопрос "чему равно 10001-е по счету простое число?". Программа абсолютно детерминирована, и ответ казалось бы содержится в ее коде и данных, однако пока мы ее не запустим, он нам неизвестен. И когда программа выдаст ответ, это уменьшит наше незнание и определенно сообщит нам информацию. Конечно, при условии, что мы не знали ответ раньше.


V>Программа скопирует число, уже содержащееся в исходных данных, в наш мозг.


Как это уже содержащееся? Покажите мне его в этом коде:

arr=[]
(2..120000).each{|i| (2..Math.sqrt(i).floor).detect{|j| i%j==0} or arr<<i}
p arr[10000]
Re[8]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 20.01.09 05:50
Оценка:
Здравствуйте, SergH, Вы писали:
SH>

SH>>>>Т.е. можно, гм, сделать конденсат, разделить на две части, поместить в коробочки, развести их далеко-далеко и говорить в трубочку на этом конце, а на том будет в такт вибрировать?

Ну конечно же не следует. Сама по себе идея "разделить конденсат" требует механического перенесения доли частиц. С учетом того, что критерием "конденсата" является равенство импульса нулю, это примерно то же самое, что ловить радугу шапкой.
То есть попытаться это сделать можно, но в процессе конденсат будет разрушен.
... << RSDN@Home 1.2.0 alpha rev. 677>>
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re[2]: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 20.01.09 06:58
Оценка:
Здравствуйте, VGn, Вы писали:

V>>2. Из точки А информация не может поступить в точку Б если между ними нет информационного канала. Если принять п.1, то это должен быть перенос либо вещества, либо энергии.


VGn>А утяжелили. Б стал притягиваться сильнее. Что перенесли?


Чтобы А утяжелить, надо что-то перенести в точку А. Это что-то имеет вокруг себя гравитационное поле, простирающееся и до точки Б.
Re[3]: Несколько дурацких вопросов по теории информации
От: Gajdalager Украина  
Дата: 20.01.09 07:06
Оценка:
Здравствуйте, nikov, Вы писали:

N>Здравствуйте, VGn, Вы писали:


V>>>2. Из точки А информация не может поступить в точку Б если между ними нет информационного канала. Если принять п.1, то это должен быть перенос либо вещества, либо энергии.


VGn>>А утяжелили. Б стал притягиваться сильнее. Что перенесли?


N>Чтобы А утяжелить, надо что-то перенести в точку А.

Или А разогнать?
<< RSDN@Home 1.2.0 alpha 4 rev. 1128>>
Сейчас играет In Extremo — Liam (in Deutsch)
Re[4]: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 20.01.09 07:08
Оценка:
Здравствуйте, Gajdalager, Вы писали:

VGn>>>А утяжелили. Б стал притягиваться сильнее. Что перенесли?


N>>Чтобы А утяжелить, надо что-то перенести в точку А.

G>Или А разогнать?

Чтобы А разогнать, так чтобы он стал тяжелее, надо что-то перенести в точку А. Если будешь разгонять за счет внутренних ресурсов, масса не увеличится.
Re[9]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 20.01.09 09:17
Оценка:
Здравствуйте, Sinclair, Вы писали:

S>Ну конечно же не следует. Сама по себе идея "разделить конденсат" требует механического перенесения доли частиц. С учетом того, что критерием "конденсата" является равенство импульса нулю, это примерно то же самое, что ловить радугу шапкой.

S>То есть попытаться это сделать можно, но в процессе конденсат будет разрушен.

Т.е. трафик через это не пустить? Жаль

Я абсолютно точно чего-то не понимаю, поэтому буду рад, если ты мне объяснишь. Как может быть нулевой импульс, если оно всё находится на Земле? А земля крутится вокруг себя, вокруг Солнца и вместе с Солнцем -- вокруг центра галактики. Ну, допустим, на тех промежутках времени, движение в рамках вращения вокруг центра галактики можно считать поступательным, и, наверное, этим можно пренебречь. Но суточное вращение?

Да и не бывает импульс 0, если я правильно понимаю Гейзенберга (вполне возможно, что неправильно), это должно приводить просто к полной неопределённости с координатами.

Так что если мы потихоньку, потихоньку... Не?
Делай что должно, и будь что будет
Re[9]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 20.01.09 09:18
Оценка:
Здравствуйте, Sinclair, Вы писали:

S>Ну конечно же не следует. Сама по себе идея "разделить конденсат" требует механического перенесения доли частиц. С учетом того, что критерием "конденсата" является равенство импульса нулю, это примерно то же самое, что ловить радугу шапкой.

S>То есть попытаться это сделать можно, но в процессе конденсат будет разрушен.

А если не разделить, а растянуть?
Короче, сам факт мгновенной передачи -- подтверждаешь, или пусть Эйнштейн ещё поживёт?
Делай что должно, и будь что будет
Re[7]: Несколько дурацких вопросов по теории информации
От: Klapaucius  
Дата: 20.01.09 09:40
Оценка:
Здравствуйте, Курилка, Вы писали:

K>>Ну, это проблема, если демон лапласа работает внутри механистического мира. А на то, что количество информации не менятся это никак не влияет. Вот есть у нас n частиц, для которых мы знаем координаты и импульсы в момент t. Энергия только механическая, никакой диссипации. Это наш карманный механистический мирок на бумаге. Можно записать гамельтониан и сыграть в демона лапласа. Как тут информация от времени зависит?

К>Это будет уже не замкнутый мир, так что снова "не катит".

А я не согласен, что это проблема. Информация извне не поступает, а от того, что информация уходит за пределы системы ее количество в системе не меняется.
... << RSDN@Home 1.2.0 alpha 4 rev. 1110>>
'You may call it "nonsense" if you like, but I'VE heard nonsense, compared with which that would be as sensible as a dictionary!' (c) Lewis Carroll
Re[7]: Несколько дурацких вопросов по теории информации
От: Klapaucius  
Дата: 20.01.09 09:57
Оценка:
Здравствуйте, Voblin, Вы писали:

K>>Ну это и будет псевдосамоорганизация в таком же точно смысле, в котором числа — псевдослучайные.

V>Почему "псевдо"? Самая настоящая самоорганизация! То, что вся система полностью детерминирована и сама на себя замкнута, знаем только мы, Боги-программисты и наш демонический компьютер.

Вообще-то о том детерминирован мир или нет — можно узнать изнутри. Как в случае со скрытыми параметрами в квантовой механике и неравенствами Белла.

V>Для подсистем этой системы будет существовать внешний мир, с которым они обмениваются "веществом" и "энергией" (а на самом деле, всего лишь только информацией). И сидя под "солнцем", "живчики", населяющие наш искусственный мир, будут вести беседы о "будущем", строя какие-то смешные планы, помогать друг другу, обжуливать друг друга.


Погодите, погодите. Если бы такой полностью детерминированный искуственный мир существовал — это еще могло бы быть доводом, но пока что это только спекулятивные рассуждения.

K>>Система будет эволюционировать полностью детерминированно, точек бифуркации не будет. Никакой новой информации не появится.

V>Абсолютно согласен. Если мы в условиях задачи просили полностью детерминированную систему, то такую мы и получим. Если, конечно, закодим аккуратно. Никакой новой информации действительно не будет. Всё поведение системы описывается алгоритмом и набором начальных данных.

Ну вот, значит если какая самоорганизация и будет, то разве только консервативная. Или я что-то неправильно понимаю.
... << RSDN@Home 1.2.0 alpha 4 rev. 1110>>
'You may call it "nonsense" if you like, but I'VE heard nonsense, compared with which that would be as sensible as a dictionary!' (c) Lewis Carroll
Re[4]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 10:08
Оценка:
Здравствуйте, Курилка, Вы писали:

К>Классно, сначала говоришь "антропоцентризм — зло", а потом, а потом "можно встретить", т.е. обращаешься опять к тому, что встречать её будет тот же самый "хомо сапиенс".

К>Я склоняюсь к тому, что об информации без субъекта её интерпретирующего (т.е. хомо сапиенса) рассуждать нет никакого смысла.

"Можно встретить" — это не значит, что кто-то должен куда-то пойти (обязательно на двух ножках!), что-то встретить, и не забыть поздороваться.
У животных, как правило, есть глаза. Для чего? Для улучшения аэродинамики головы? Или для фотосинтеза? Нет, их единственное назначение — получение организмом информации для дальнейшей обработки и принятия решений. Даже такие тупые твари как бактерии (в частности, жгутиковые) имеют рецепторы и способны обрабатывать информацию о градиенте освещённости и/или о градиенте концентрации веществ.
В свете этого утверждение о том, что только Хомо Сапиенс способен обрабатывать информацию — наглая самодовольная ложь.
Re[8]: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 20.01.09 10:13
Оценка:
Здравствуйте, Klapaucius, Вы писали:

K>Вообще-то о том детерминирован мир или нет — можно узнать изнутри. Как в случае со скрытыми параметрами в квантовой механике и неравенствами Белла.


Неравенства Белла не исключают детерминизма и скрытых параметров. Но они показывают, что должно иметь место хотя бы одно из следующего:
1) отсутствие скрытых параметров
2) нелокальность
3) супердетерминизм (то есть, поведение экспериментатора и частицы не независимы, а имеют общую причину в прошлом).
Re[5]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 10:16
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>А вот примеры со снежинкой и растением мимо кассы — они просто следуют физическим законам, никаких решений не принимают и информацию не обрабатывают.


Все мы следуем физическим законам. Я не знаком ни с кем, кому удалось их нарушить.

Понятно, что растущая снежинка никаких решений не принимает. У неё просто нет принималки решений. Но формирование столь причудливой формы — чисто информационный процесс, основанный на том, что из триллионов возможных событий прирастания молекул воды к растущему кристаллу случаются миллиарды таких, которые наиболее вероятны по причине их немножко большей энергетической выгодности.
Re[5]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 20.01.09 10:30
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, Курилка, Вы писали:


К>>Классно, сначала говоришь "антропоцентризм — зло", а потом, а потом "можно встретить", т.е. обращаешься опять к тому, что встречать её будет тот же самый "хомо сапиенс".

К>>Я склоняюсь к тому, что об информации без субъекта её интерпретирующего (т.е. хомо сапиенса) рассуждать нет никакого смысла.

V>"Можно встретить" — это не значит, что кто-то должен куда-то пойти (обязательно на двух ножках!), что-то встретить, и не забыть поздороваться.

V>У животных, как правило, есть глаза. Для чего? Для улучшения аэродинамики головы? Или для фотосинтеза? Нет, их единственное назначение — получение организмом информации для дальнейшей обработки и принятия решений. Даже такие тупые твари как бактерии (в частности, жгутиковые) имеют рецепторы и способны обрабатывать информацию о градиенте освещённости и/или о градиенте концентрации веществ.

ОК, тогда по твоим рассуждениям выходит, что, скажем турникет в метро тоже способен воспринимать и обрабатывать инфомрацию (пусть она будет и не очень обширная, а только касается жетона, скажем), я правильно понял? Может ещё и дверь воспринимает информацию наличия ключа в замке?

V>В свете этого утверждение о том, что только Хомо Сапиенс способен обрабатывать информацию — наглая самодовольная ложь.


Давай без эмоций, пожалуйста, про способность обработки информации я ничего не утверждал, так что про наглость могу и отзаркалить
Я лишь говорил о том, что как отдельное понятие информация (также как, математические понятия) — есть абстракция существующая в мозгу хомо сапиенса.
Re[7]: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 20.01.09 10:42
Оценка:
Здравствуйте, nikov, Вы писали:

N>А для числа Пи даже не доказано, что каждая десятичная цифра встречается бесконечное число раз в его разложении, не говоря уже о его нормальности.


Кстати, еще из интересного недоказанного: трансцендентность произведения пи*е, иррациональность постоянной Эйлера-Маскерони (которая предел разности между гармоническим числом и натуральным логарифмом).
Re[6]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 11:11
Оценка:
Здравствуйте, Курилка, Вы писали:

К>ОК, тогда по твоим рассуждениям выходит, что, скажем турникет в метро тоже способен воспринимать и обрабатывать инфомрацию (пусть она будет и не очень обширная, а только касается жетона, скажем), я правильно понял?


Конечно. Для этого у него есть рецептор жетона, рецепторы прохождения человека и простенький проц. Логика работы описывается в чисто информационных терминах. И не важно, на чём физически реализовывать проц — на релюшках или, допустим, на PICе.

К>Может ещё и дверь воспринимает информацию наличия ключа в замке?


Можно сказать и так. Малые (чисто информационные!) различия в паттерне впихнутого ключа существенно влияют на дальнейшие события.

К>Давай без эмоций, пожалуйста, про способность обработки информации я ничего не утверждал, так что про наглость могу и отзаркалить


Извини если обидел. Ничего личного.

К>Я лишь говорил о том, что как отдельное понятие информация (также как, математические понятия) — есть абстракция существующая в мозгу хомо сапиенса.


В общем соглашусь, что обработка абстрактной информации (и, следовательно, манипулирование абстрактным понятием "информация") без труда наблюдается только у человека. Но ведь то, что птицы не изучают в институте аэродинамику, не мешает им вполне успешно летать, не правда ли?
Re[7]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 20.01.09 11:15
Оценка:
Здравствуйте, Voblin, Вы писали:

К>>Может ещё и дверь воспринимает информацию наличия ключа в замке?

V>Можно сказать и так. Малые (чисто информационные!) различия в паттерне впихнутого ключа существенно влияют на дальнейшие события.

Рискуешь..
Футбольный мяч -- обрабатывает информацию, поступающую к нему от ноги футболиста и принимает решение? Если нет, то почему, если да, то ты просто ввёл слово, которое обозначает "всё подряд".
Делай что должно, и будь что будет
Re[8]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 11:20
Оценка:
Здравствуйте, Klapaucius, Вы писали:

K>Ну вот, значит если какая самоорганизация и будет, то разве только консервативная. Или я что-то неправильно понимаю.


В принципе, консервативная самоорганизация тоже сгодилась бы. Но консервативная самоорганизация предполагает отсутствие притока энергии, а в наш детерминированный механистический мир мы вполне можем закачивать "чистую энергию", не несущую в себе никакой информации (например, подавать строго постоянное напряжение +5V).
Re[8]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 11:36
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Рискуешь..

SH>Футбольный мяч -- обрабатывает информацию, поступающую к нему от ноги футболиста и принимает решение? Если нет, то почему, если да, то ты просто ввёл слово, которое обозначает "всё подряд".

Рискую.
Да уж, сложно найти разум (или хотя бы какой другой обработчик информации) внутри футбольного мяча. Тем не менее, малые отклонения направления импульса, получаемого мячом от ноги, совершенно равнозначные как по веществу, так и по передаваемой энергии, приводят к существенным различиям в направлении движения мяча. Отклонение на несколько несчастных градусов может привести к ликованию или разочарованию трибун, к возникновению или не возникновению погромов, к изменению психологического климата в стране, и даже к изменению в ней демографической ситуации.

А сам мячик — нет, он никаких решений не принимает. Его природная сущность — получить импульс и двигаться в том направлении, в котором его послали.
Re[6]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 11:45
Оценка:
Спасибо, Tilir, Вы писали:

T>Ну и что? Костёр горит, а вражеской конницы всё нет и нет. Твоя исходная посылка была что для информации нужен физический носитель. Смотри сколько информации ты получил не задействуя никаких носителей. Включая ложную, разумеется. Осталось придумать надёжный метод отличать истинную информацию от ложной, ну так это техническая задача.


Ну что, первое свойство (то, которое "Информация не существует сама по себе отдельно от своего носителя") можно считать опровергнутым? Действительно, отсутствие чего-то тоже ведь можно воспринять как информацию. А отсутствие сложно назвать физическим объектом

Но свойство это опровергнуто не насовсем. Оно просто потребовало переформулирования.

Ушёл думать.
Re[10]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 11:50
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Имхо, понятие "информация" без "решения" неотличимо от понятия "воздействие". Т.е. либо ты все воздействия обзываешь информационными и тогда теория становится вырожденной, либо надо как-то различать.


Очень даже отличимо. Если в результате воздействия система не изменила состояния (подкачали мощность, направление, продолжительность или характер воздействия), то "воздействие" есть, а "информации" нет.
Re[11]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 20.01.09 11:56
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Очень даже отличимо. Если в результате воздействия система не изменила состояния (подкачали мощность, направление, продолжительность или характер воздействия), то "воздействие" есть, а "информации" нет.


А что такое "состояние"? Изменение импульса -- катит?
Делай что должно, и будь что будет
Re[7]: Несколько дурацких вопросов по теории информации
От: Tilir Россия http://tilir.livejournal.com
Дата: 20.01.09 13:00
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Но свойство это опровергнуто не насовсем. Оно просто потребовало переформулирования.


Так я и возражал в общем-то только по формулировке. Мне самому кажется что есть две ортогональные вещи -- событие объективного мира и условная умозрительная связь двух или более событий которая и порождает информацию. Сам по себе костёр ничего не значит. Так же и число пи само по себе это просто число. Но вот мы связываем два факта "моя автобиография" и "её положение в числе пи" и говорим что одно несёт информацию о другом. Связываем "костёр" и "конницу". Связываем пять вольт и понятие "истина", два вольта и понятие "ложь". Связь может объективно существовать и тогда информация истинная, может не существовать, тогда она как правило ложная и истинная только по совпадению. И вот чтобы она была истинной всегда связь должна быть измеримой и данной в ощущениях (физический канал) иначе и получаем извлечение бесконечных будущих из числа пи и гадание на звёздах о судьбе. То есть ваш физический канал нужен не для существования информации а для её истинности.
Re[12]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 13:15
Оценка:
Здравствуйте, SergH, Вы писали:

SH>А что такое "состояние"? Изменение импульса -- катит?


А вот этот вопрос сложнее чем кажется.
Изменение импульса может быть изменением состояния, а может им и не быть.

Думаю, именно в понятии "состояние" и кроется значительная часть рассматриваемой здесь проблемы.

С точки зрения болельщиков самое существенное изменение состояния мяча — это когда он пересекает линию ворот.
Уход человека в состояние запоя — это безусловно изменение состояния для его семьи и коллег, но для паспортного стола это не изменение состояния. Вот если бы он выписался, вот тогда с точки зрения паспортного стола состояние человека изменилось бы.

Кстати, определения понятий "состояние" и "информация" можно попытаться рекурсивно завязать друг на друга. Получится красиво.
Re[13]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 20.01.09 13:25
Оценка:
Здравствуйте, Voblin, Вы писали:

V>А вот этот вопрос сложнее чем кажется.

V>Изменение импульса может быть изменением состояния, а может им и не быть.

V>Думаю, именно в понятии "состояние" и кроется значительная часть рассматриваемой здесь проблемы.


Нет. Не совсем так. Доводя твои взгляды до некоторого абсурда, и не встречая никаких ограничений (т.к. речь о "всеобщей теории всего" -- какие нафиг ограничения?) я прижал тебя к стенке, на которой написано "состояние". И теперь ты говоришь "да, возможно здесь кроется тайна". Сутки назад была такая же стенка с надписью "информация". Что изменилось?

Ты распространил понятие "информация" настолько широко, что оно потеряло всякий смысл. Этот смысл пришлось передать кому-то следующему, в данном случае -- "состоянию". Ты мог дать другое различие между воздействием и информацией, мог счесть, что его нет -- разные были варианты.

V>С точки зрения болельщиков самое существенное изменение состояния мяча — это когда он пересекает линию ворот.

V>Уход человека в состояние запоя — это безусловно изменение состояния для его семьи и коллег, но для паспортного стола это не изменение состояния. Вот если бы он выписался, вот тогда с точки зрения паспортного стола состояние человека изменилось бы.

Вот попёр субъективизм, от которого ты всячески отгораживался, стараясь ввести "объективное строгое понятие 'информация'". Он попёр неслучайно, он является неотчуждаемой спецификой рассматриваемой области. Поэтому вытеснение его из одного места привело к появлению его в другом.

V>Кстати, определения понятий "состояние" и "информация" можно попытаться рекурсивно завязать друг на друга. Получится красиво.


Чтоб вообще никто ничего не понял, ага.
Делай что должно, и будь что будет
Re[10]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 20.01.09 13:54
Оценка:
Здравствуйте, SergH, Вы писали:

SH>А если не разделить, а растянуть?

SH>Короче, сам факт мгновенной передачи -- подтверждаешь, или пусть Эйнштейн ещё поживёт?
Хм. Как бы так тебе объяснить...
Ну вот есть у нас, к примеру, лазер. Он построен на аналогичном бозонном эффекте — фотоны в нём сваливаются в небольшое количество мод (иногда даже в одну). С точки зрения квантовой механики, фотоны перестают "бегать" по
Это совершенно не означает, что лазер позволит хоть как-то обмануть скорость света

Конденсат, собственно, всего лишь означает, что а) частицы "распухают" (как ты совершенно верно заметил — с уменьшением неопределённости импульса растет неопределенность координат) и б) "взаимопроникают".
Тем не менее, частицы взаимодействуют совершенно отдельно. Например, квант света будет поглощен ровно одной частицей из ансамбля, а не распределится равномерно.
Я не могу придумать эксперимент с конденсатом, который бы позволил обойти принцип причинности и скорость света.
Ну вот предположим, что мы охладили атом рубидия настолько, что он стал занимать макроскопический размер. Проверить его наличие в "ловушке" можно только одним способом: провзаимодействовать с ним. Но как только мы провзаимодействовали с атомом, он "выскочит" из ловушки и станет непригоден для наблюдения.
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re[11]: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 20.01.09 14:00
Оценка:
Здравствуйте, Sinclair, Вы писали:

S>Ну вот предположим, что мы охладили атом рубидия настолько, что он стал занимать макроскопический размер.


Ты имеешь в виду, что неопределенность его координат должна стать макроскопической?
Re[6]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 20.01.09 14:16
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Понятно, что растущая снежинка никаких решений не принимает. У неё просто нет принималки решений. Но формирование столь причудливой формы — чисто информационный процесс, основанный на том, что из триллионов возможных событий прирастания молекул воды к растущему кристаллу случаются миллиарды таких, которые наиболее вероятны по причине их немножко большей энергетической выгодности.


Я все же пока не могу увидеть в этом процессе информационности. Когда футбольный мяч падает вниз под действием гравитации, это тоже информационный процесс? Что такое вообще информационный процесс?
Re[6]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 20.01.09 14:19
Оценка:
Здравствуйте, Tilir, Вы писали:

T>Ну и что? Костёр горит, а вражеской конницы всё нет и нет. Твоя исходная посылка была что для информации нужен физический носитель. Смотри сколько информации ты получил не задействуя никаких носителей. Включая ложную, разумеется. Осталось придумать надёжный метод отличать истинную информацию от ложной, ну так это техническая задача.


С тем же успехом можно пытаться черпать массу полезной информации о мире из /dev/random, нужно лишь уметь отличить истинную от ложной.
Проблема в том, что так мы можем извлекать данные (цифры), но не информацию, ибо эти данные сами по себе никак наше незнание о мире не уменьшают. Только тогда данные становятся информацией, когда уменьшают неопределенность (см. пример с Медведевым выше).
Re[6]: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 20.01.09 14:20
Оценка:
Здравствуйте, Васильич, Вы писали:

В>PS. Читая топик, невольно напрашивается мысль, что в стандартный курс обучения программиста обязательно входят ядерная и квантовая физика, общая и специальные теории относительности, термодинамика и астрономия,


В наши дни это все в той или иной мере впихнули даже в школьную программу, а здесь наверное не мало людей с высшим образованием.
Re[6]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 20.01.09 14:22
Оценка:
Здравствуйте, Васильич, Вы писали:

В>А вопрос с информацией в компьютерном смысле — очень даже интересен. Вот есть архиватор FreeArc, который сжимает и распаковывает файлы. Перерабатывает ли он информацию? Думаю, что нет. В этом случае он сродни снежинке, следующей физическим законам. Только для архиватора эти законы писаны человеком. Архиватор можно сравнить с горной рекой, вход которой узкий и бурный, а выход — широкий и плавно-текучий. Река трансформирует воду. Но перерабатывает ли она при этом информацию? Нет. Она всего лишь течет в рамках берегов, заданных природой (а архиватор — в рамках алгоритмов, написанных человеком).


Интересная тема, пойду подумаю..

В>PS. Читая топик, невольно напрашивается мысль, что в стандартный курс обучения программиста обязательно входят ядерная и квантовая физика, общая и специальные теории относительности, термодинамика и астрономия, философия и риторика. Аж завидно


Ну, у нас на факультете (который готовит программистов) квантовая физика и философия изучались немного. Хотя, скорее, проходились — мимо.
Re[14]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 16:27
Оценка:
Здравствуйте, deniok, Вы писали:

D>Поздравляю, в результате долгой дискуссии вы близки к рождению классического определения информации, как логарифма количества состояний (равновозможных, в противном случае можно слегка поднормировать на вероятности).

D>

Тоже, кстати, неплохой результат

Остаётся только разобраться со свойствами этого самого логарифма количества состояний. Ну должны быть свойства, ну хотя бы одно!
И на закуску (чисто любопытства ради) совместно с физиками понять, почему логарифм количества состояний не может двигаться быстрее скорости света.
Re[14]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 17:15
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Нет. Не совсем так. Доводя твои взгляды до некоторого абсурда, и не встречая никаких ограничений (т.к. речь о "всеобщей теории всего" -- какие нафиг ограничения?) я прижал тебя к стенке, на которой написано "состояние". И теперь ты говоришь "да, возможно здесь кроется тайна". Сутки назад была такая же стенка с надписью "информация". Что изменилось?


Ни сутки назад, ни сейчас никакой стенки не было. Меня можно было бы к чему-то прижать, если бы я пришёл сюда и принёс очередную "теорию всего". Но я её не принёс так как у меня её нет. У меня есть всего лишь "несколько дурацких вопросов по теории информации". Внимание публики было обращено на тот прискорбный факт, что мы, строя машины (а кое-кто и человеко-машинные системы), предназначенные для сбора, накопления и обработки информации, не имеем внятного представления о том, что же это собственно такое — информация, и каковы её свойства. Токарь может много рассказать о свойствах металлов, строитель — о свойствах бетона. А мы, инфотехнологи можем только что-то жалко пролепетать про то, что ОНО меряется в битах. Спасибо хоть, что не станем говорить, что ОНО лежит в папочке "Мои документы" или на рабочем столе. И я в этом смысле ничуть не лучше всех остальных собравшихся. Точно такая же муть в голове. Вот и задаю дурацкие вопросы.

Ну да, пришлось для начала разговора вбросить несколько утверждений (чтобы сразу не быть отосланным к школьному учебнику информатики). Вопрос не в том, что эти конкретные утверждения верны или не верны. Право слово, с точки зрения теории информации совершенно безразлично, есть ограничение скорости передачи информации, или его вовсе нет.

SH>Ты распространил понятие "информация" настолько широко, что оно потеряло всякий смысл. Этот смысл пришлось передать кому-то следующему, в данном случае -- "состоянию". Ты мог дать другое различие между воздействием и информацией, мог счесть, что его нет -- разные были варианты.


А понятие "информация" нельзя не распространять широко. В конце концов, мы ведь умеем и любим извлекать информацию из всего, до чего прямо или косвенно можем дотянуться. Даже если мысленно убрать человека-наблюдателя, всё равно останется живой мир, который ежемоментно перемалывает горы гигабайт информации в своих корыстных целях. Даже если мысленно убрать живой мир, всё равно останутся где-нибудь замкнутые системы, в которых энтропия (чисто информационное понятие!) почему-то сама растёт.

SH>Вот попёр субъективизм, от которого ты всячески отгораживался, стараясь ввести "объективное строгое понятие 'информация'". Он попёр неслучайно, он является неотчуждаемой спецификой рассматриваемой области. Поэтому вытеснение его из одного места привело к появлению его в другом.


Никакого понятия информации я не вводил. Ни объективного, ни субъективного, ни строгого, ни расплывчатого.

А субъективизм попёр именно потому, что в понятии "состояние" этот самый субъективизм и сидит. Попробую пояснить.
<Внимание! Дальше — вольная измышлятина!>
Та информация, которую извлекает субъект из объекта — это и есть состояние объекта. Информация — это воздействие, влияющее на состояние субъекта. Вот так вот, одно через другое и обратно. От объекта к субъекту, который сам при этом является объектом.

Бред? Возможно. А может быть, и нет.

Измерять количество информации, передаваемой в конкретном взаимодействии — бессмысленно. В примере с ногой и мячиком направление вектора удара не дискретно, и поэтому количество вариантов возможных воздействий (теоретически) бесконечно. Но эта бесконечная информационная ёмкость будет средуцирована в нечто вполне дискретное и не бесконечное: "Гооооол!"

Может быть, эти всегда и везде возникающие бесконечности количеств вариантов, помноженные на повсеместную разбросанность точек бифуркации и порождают тот самый первичный информационный поток, который затем уже при дальнейшей обработке только редуцируется? И, может быть, даже не нужно притягивать за уши квантовую механику и совать свою голову в Большой Взрыв?
Re[15]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 20.01.09 17:30
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Остаётся только разобраться со свойствами этого самого логарифма количества состояний. Ну должны быть свойства, ну хотя бы одно!


Конечно — аддитивность!
Если мы соединяем две системы с количеством состояний M и N, то общее число состояний становится M*N, а вот информация складывается: log(M * N) = log M + log N. Собственно логарифм — именно для этого.
Re[15]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 20.01.09 17:38
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Остаётся только разобраться со свойствами этого самого логарифма количества состояний. Ну должны быть свойства, ну хотя бы одно!


Ну так учебники же не зря печатают, Шеннон сотоварищи немало интересных формул вывели, вот вам и свойства.
Re[2]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 17:47
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>Информацию почти всегда можно считать синонимом негэнтропии, т.е. информация есть уменьшение неопределенности. Если мне сообщат, что президентом России последние несколько месяцев был некто Медведев, это сообщит мне ровно 0 бит информации, несмотря на то, что само сообщение может занимать кучу мегабайт (например, в виде записи ТВ сигнала).


Вот именно, что "почти всегда". Если я вдруг получу из надёжнейшего источника информацию о том, что никакой человек по фамилии Медведев не является и никогда не являлся президентом России, то моя какая-никакая определённость в отношении государственного устройства РФ превратится в полную сумятицу. Т.е. информация вызвала увеличение неопределённости, хотя, по идее должна была её либо уменьшить, либо оставить прежней.

DM>Формула для энтропии неслучайно очень похоже выглядит в казалось бы разных областях — в теории информации, в квантах и в термодинамике. Она во всех этих случаях описывает меру нашего незнания о системе. И связь информации с вероятностями совершенно логична: вероятности используются для описания систем и событий, где мы не знаем точного состояния.


Вероятность — такая странная штука, что применять её надо осторожно. Например считается, что если вероятность события стремится к нулю (т.е. меньше любого наперёд заданного e), то событие не случается. А вот и нет. Случаются, притом постоянно. Простой пример. Представим себе горизонтальную плоскость, представим себе идеально круглый шар. Количество точек на поверхности шара — бесконечно. Вероятность того, что шар приземлится на какую-то конкретную точку — единица, делённая на бесконечность. И так для всех точек. Бросаем шар, и он (о чудо!) приземляется на точку, вероятность приземления на которую ещё недавно была равна нулю. Вообще считается, что измерять вероятность уже произошедшего события — некорректно.

DM>Из занимательной литературы на эту тему есть как минимум Пенроуз и книжка "Динамика и информация" (забыл авторов). Рекомендую также курить кванты, описание квантовой энтропии и вопросов измерения (коллапс волновой функции, декогеренция и т.п.).

Б.Б.Кадомцев. Динамика и информация. Скачал, посмотрел. В основном физика. По части информации и её свойств — мизер.

Ой, боюсь, что физика здесь не поможет. Притом никаким своим разделом. Информация и всё, что с ней связано — это чистая абстракция в духе математики и логики. Думаю, информация осталась бы информацией и её движение подчинялось бы тем же самым законам, если бы мы жили в четырёхмерном пространстве и двумерном времени.
Re[6]: Несколько дурацких вопросов по теории информации
От: R.K. Украина  
Дата: 20.01.09 17:50
Оценка:
Здравствуйте, Tilir, Вы писали:

T>Здравствуйте, Voblin, Вы писали:


V>>Блин, да в этом проклятом числе pi содержатся все возможные и невозможные варианты моего будущего! Какой выбрать? Скажите номер!


T>Осталось придумать надёжный метод отличать истинную информацию от ложной, ну так это техническая задача.


И правда, а мужики-то и не знали!
You aren't expected to absorb this
Re[16]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 20.01.09 17:54
Оценка:
Здравствуйте, deniok, Вы писали:

D>Конечно — аддитивность!

D>Если мы соединяем две системы с количеством состояний M и N, то общее число состояний становится M*N, а вот информация складывается: log(M * N) = log M + log N. Собственно логарифм — именно для этого.

Стоп. А как тогда объяснить квайны?
Так что аддитивность не канает. Вернее, канает, но как-то так странно, прихрамывая на обе ноги.
Re[6]: Несколько дурацких вопросов по теории информации
От: . Великобритания  
Дата: 20.01.09 22:19
Оценка:
Васильич wrote:

> Я, кстати, в изначальном сообщении не писал про конкретно человека, а

> скорее имел в виду любое мыслящее существо. Вокруг определения
Обычно вместо шаткого термина "мыслящее существо" используют "кибернетическая система", система с обратной связью. Но тут возникает та же проблема курица/яйцо.
Помню, как-то давным давно в фидо был флейм по этому поводу и свелось к спору мыслит ли сливной бачок.

А вообще, имхо, информация это просто интуитивное поняти, которое оказалось полезным в математике и появился удобный инструмент познания. Как, скажем, "точка" в геометрии. А копание в этом направлении уводит в дебри феномена "математическая интуиция".
Posted via RSDN NNTP Server 2.1 beta
но это не зря, хотя, может быть, невзначай
гÅрмония мира не знает границ — сейчас мы будем пить чай
Re[4]: Несколько дурацких вопросов по теории информации
От: . Великобритания  
Дата: 20.01.09 22:29
Оценка:
Klapaucius wrote:

> Потому, что в механистическом мире для любого произвольно заданного

> времени t, получив полную информацию о состоянии системы мы знаем это
> состояние и для любого произвольного времени t'. Т.е. информации ни
> больше ни меньше не становится. С.м. "Демон Лапласа".
Это почему? Если, конечно, описывать на компьютере, т.е. алгоритмически, т.е. по определению детерминировано, то естественно у нас получится детерминированный мир.

Однако, как я понимаю, неопределённости возникают даже в простых ситуациях (скажем, Задача 3 Тел). Достаточно в систему ввести действительные числа (которые уже неконструктивны, а значит неалгоритмизируемы), что уже можно напороться на хаос.
С другой стороны — насколько действительные числа физичны? Квантовая физика, и всё такое... Но и тут не беда. Количества вариантов (состояний, свойств, етс) 10^100 хоть теоретически и конечны, но на практике ведут себя как бесконечные и алгоритмически невычислимые.
Posted via RSDN NNTP Server 2.1 beta
но это не зря, хотя, может быть, невзначай
гÅрмония мира не знает границ — сейчас мы будем пить чай
Re[12]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 21.01.09 05:06
Оценка:
Здравствуйте, nikov, Вы писали:
N>Ты имеешь в виду, что неопределенность его координат должна стать макроскопической?
Совершенно верно. Красивые картинки здесь.
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re[6]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 21.01.09 05:18
Оценка:
Здравствуйте, Васильич, Вы писали:

В>Я, кстати, в изначальном сообщении не писал про конкретно человека, а скорее имел в виду любое мыслящее существо. Вокруг определения "мыслящий" уже сломано куча копий и, в основном, человек его применят очень интуитивно. Причем, я склоняюсь к тому, что человек называет "мыслящим" или "живым" того, кто как раз умеет перерабатывать информацию. Это может быть человек, кошка, слон, разумный океан с Соляриса и может быть даже амебы, деревья (вот не могу сказать точно, насколько они разумны)


А я склоняюсь к тому, что достаточно, чтобы у субъекта была некая модель, которую он использует в своей деятельности и может уточнять. Более мыслящим или живым он быть не обязан. У дерева нет моделей, оно информацию не обрабатывает. У архиватора — есть (частотное распределение символов и их цепочек), он уже обрабатывает. У кошки тоже есть, она тоже годится.

В>А вопрос с информацией в компьютерном смысле — очень даже интересен. Вот есть архиватор FreeArc, который сжимает и распаковывает файлы. Перерабатывает ли он информацию? Думаю, что нет. В этом случае он сродни снежинке, следующей физическим законам. Только для архиватора эти законы писаны человеком. Архиватор можно сравнить с горной рекой, вход которой узкий и бурный, а выход — широкий и плавно-текучий. Река трансформирует воду. Но перерабатывает ли она при этом информацию? Нет. Она всего лишь течет в рамках берегов, заданных природой (а архиватор — в рамках алгоритмов, написанных человеком).


У архиватора есть вероятностная модель источника данных (сжимаемого файла), и по мере его обработки он эту модель обновляет, уменьшая неопределенность, извлекая из файла информацию, и используя ее для дела. Я все же считаю, что это самый настоящий пример работы с информацией. Механистичность и детерминированность этого процесса не важны, ведь и про человека можно задать те же вопросы (насколько механистична работа его мозга или ума, насколько он детерминирован, и кто его запрограммировал).

В>Теперь расширим наш пример. Возьмем архиватор с самообучением, скажем на нейронных сетях. Подав на его вход файл, мы не просто получим на выходе сжатый файл, но и вместе с ним архиватор с измененным состоянием. Будет ли это являться получением архиватором новых знаний и, следовательно, причислением его к классу перерабатывающих информацию? Предлагаю высказать свои мнения по этому поводу, ибо я сам тоже не готов дать точный ответ


Нейронная сеть ничего принципиально не изменит. Самообучение в архиваторе (точнее, в энтропийном кодере) и так уже есть: сначала он вообще может ничего не знать о тексте, а под конец может продолжать предложения не хуже автора.

В>Кстати, все проводят парралели между общим понятием информации и информацией "компьютерного" плана. А эквивалентны ли эти понятия?


Думаю, да. Только нужно не путать информацию с данными. Последовательность битов еще не информация.
Re[2]: Да, забыл! :(
От: craft-brother Россия  
Дата: 21.01.09 08:13
Оценка:
CB>Здравствуйте, Voblin, Вы писали:

V>>Что на эту тему можно вкурить?


Курить:

Результаты Гугла по словам ТЕОРИЯ ПОЗНАНИЯ (она же гносеология, эпистемология), СЕМИОТИКА, НЕОПОЗИТИВИЗМ, ПОСТСТРУКТУРАЛИЗМ…

Сам пытаюсь курить:

Л.ВИТГЕНШТЕЙН, «Философские исследования». Ж. ДЕЛЕЗ, «Логика смысла».

Получается плохо…

Re[16]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 21.01.09 11:30
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>Ну так учебники же не зря печатают, Шеннон сотоварищи немало интересных формул вывели, вот вам и свойства.


Формулы начинают хорошо работать не раньше того момента, когда мы приходим к единому всех устраивающему мнению относительно того, что мы считаем количественным показателем, и как мы его меряем. Выражение "2+3" не имеет решения, если 2 — это метры, а 3 — киловатты.

Относительно количества информации у меня всего два вопроса:
1. Количество информации, содержащейся в случайной последовательности — максимально или минимально? С точки зрения всех сжимающих — максимально. С точки зрения того, что "информация — это сведения, уменьшающие неопределённость наших знаний об исследуемом объекте" — минимально.
2. Компутеры бывают не только цифровыми (где понятие "бит" обретает вполне конкретный смысл, вычисляемый через логарифм), но и аналоговыми. Чем мерить обрабатываемую ими информацию, если при попытке найти логарифм мы всеми частями тела бьёмся о многочисленные выпирающие со всех сторон бесконечности? Хотите сказать, что аналоговые — это вообще не компутеры, а так, насмешка истории? А вот и нет! Некоторые задачи (в частности, поиск оптимального пути) аналоговым компутером решаются невероятно эффективно. И создаются человеком они именно для обработки информации.
Re[17]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 21.01.09 12:07
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Относительно количества информации у меня всего два вопроса:

V>1. Количество информации, содержащейся в случайной последовательности — максимально или минимально? С точки зрения всех сжимающих — максимально. С точки зрения того, что "информация — это сведения, уменьшающие неопределённость наших знаний об исследуемом объекте" — минимально.

Это зависит от целей. В первом случае задача — передать в точности ту же последовательность. Например, это сгенерированный для текущей сессии ключ аутентификации. Здесь случайность — не основная характеристика. То что она случайная лишь указывает нам, что мы не можем полагаться в этом деле на априорные корреляции (если бы мы знали, что это — русский текст, то могли бы использовать частоту букв и буквосочетаний для сжатия). Если же наша задача передать лишь факт случайности, то достаточно передать от поставщика лишь длину последовательности и сгенерировать её на стороне потребителя. Это второй случай, работающий для задач: "Возьмем случайную последовательность длинной 100, и ..."

V>2. Компутеры бывают не только цифровыми (где понятие "бит" обретает вполне конкретный смысл, вычисляемый через логарифм), но и аналоговыми. Чем мерить обрабатываемую ими информацию, если при попытке найти логарифм мы всеми частями тела бьёмся о многочисленные выпирающие со всех сторон бесконечности? Хотите сказать, что аналоговые — это вообще не компутеры, а так, насмешка истории? А вот и нет! Некоторые задачи (в частности, поиск оптимального пути) аналоговым компутером решаются невероятно эффективно. И создаются человеком они именно для обработки информации.


Курить, например, геометрическое определение вероятности. Фишка в том, что любой непрерывный процесс можно дискретезировать, важно, чтобы в интересных диапазонах отсчеты были расставлены достаточно часто. Выделяешь подходящую полную группу событий — и вперед.
Re[11]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 21.01.09 12:47
Оценка:
Здравствуйте, Sinclair, Вы писали:

S>Я не могу придумать эксперимент с конденсатом, который бы позволил обойти принцип причинности и скорость света.


На принцип причинности я не покушаюсь. Только на скорость света

S>Ну вот предположим, что мы охладили атом рубидия настолько, что он стал занимать макроскопический размер. Проверить его наличие в "ловушке" можно только одним способом: провзаимодействовать с ним. Но как только мы провзаимодействовали с атомом, он "выскочит" из ловушки и станет непригоден для наблюдения.


Но какие-то штуки этот конденсат позволяет делать. Судя по вики они там свет замедляли, атомами плевались... Т.е. как-то с ним взаимодействовать можно. Видимо, важен процент атомов, которые "на нуле", и пока этот процент достаточно высок, они всё друг в друга проникают и все в целом работают "как одна большая частица".

Но про возможность разделения на части с сохранением связи между ними, или хотя бы про возможность _измерить_, что во всём макроскопическом объёме состояние меняется мгновенно (довольно логичное предположение) это ничего не говорит.
Делай что должно, и будь что будет
Re[2]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 21.01.09 15:03
Оценка:
Здравствуйте, craft-brother, Вы писали:


CB>Объективно информация не существует. Информация субъективна. Информация это свойство живой материи иметь представление и понятие о чем-либо. Информация это то, что создается в живой материи при отражении объективного мира и аккомодации.


...

CB>То, что мы научились «перерабатывать, копировать, накапливать, использовать» и проч., это данные – информация, объективизированная при помощи знаковых (сигнальных) систем.


Как возможность объективизации соотносится с декларированной выше сентенцией "Объективно информация не существует"?

CB>Информация может передаваться только от одного живого субъекта к другому. При передаче информации работает схема: Информация 1 – Передатчик – Данные 1 – Канал передачи – Данные 2 – Приемник – Информация 2. Если приемник «работает на длинных волнах» а передатчик «на коротких», то Информация 2 = пусто, даже если остальная часть цепочки идеальна.


Здрасьте, видеокамера, установленная у меня дома не передает мне по сети на ноутбук информацию о том, что там творится? Если ответ да, то тогда я заменяю себя наблюдающего на запись на жесткий диск, однако перед этим, например, напускаю программку, выкидывающую статическую составляющую. Не работает ли она с поступающей информацией? Вы, конечно, можете настаивать на том, что когда на монитор смотрю я, то ко мне поступает информация, а как только обработкой начинает заниматься программа, то к ней поступают данные, но, честно говоря, такая дистинкция не кажется мне существенной.

Я, кстати, прекрасно понимаю, что в отличие от программы, я могу дать огромное (потенциально бесконечное) количество интерпретаций тому, что мне передается. А программа настроена только на фиксированное количество таких интерпретаций: пошла динамика в картинке => начать писать на диск; прекратилась динамика => остановить запись. Тем не менее часть "отражения объективного мира и аккомодации" я способен переложить на компьютер, причем ограниченность этого перекладывания задается лишь моей ограниченностью в рационализации своих реакций.
Re[10]: Несколько дурацких вопросов по теории информации
От: Mirrorer  
Дата: 21.01.09 15:20
Оценка:
Здравствуйте, D. Mon, Вы писали:


DM>>>Протестую. Простой пример: пишем программу, которая ответит на вопрос "чему равно 10001-е по счету простое число?".


DM>Как это уже содержащееся? Покажите мне его в этом коде:


DM>
DM>arr=[]
DM>(2..120000).each{|i| (2..Math.sqrt(i).floor).detect{|j| i%j==0} or arr<<i}
DM>p arr[10000]
DM>


Что-то сильно длинно
[j]
p: 100001
1299743

p: 100000001
2038074761
[/j]
Re: Несколько дурацких вопросов по теории информации
От: goto Россия  
Дата: 21.01.09 16:14
Оценка:
Тема очень интересна. Все упирается в определения, которые всерьез дать очень трудно (вопрос ведь был не совсем технический, как я понимаю). Скажем, являются ли информацией сформулированные законы природы? Являются ли информацией законы действующие, но человеком еще не открытые? Можно попытаться определениями отделить известное от неизвестного, субъективное от объективного. Дальше можно попытаться разобраться с тем, нуждается ли информация в материальном носителе? Может ли она быть создана, уничтожена? И с т.п.

Ученый сидел и писал дикторскую по истории, сохраняя ее на флэшку, а потом эту флэшку трагическим образом сломал (допустим, это был русский ученый). Исчезла ли информация? Ведь сами исторические факты никуда не делись, а ключевые мысли и выводы автора остались в его голове. Была ли вообще на флэшке информация? Если часть информации все же была утрачена, то какая?

Для примера, можно завернуть и такое: не информация нуждается в материальном носителе, а сама является носителем. Можно еще как-то, простор для размышлений есть. Мне кажется, эта тема сама по себе огромная и ключевая, она еще ждет "общественного" осмысления. IT-область, как я подозреваю, еще только начинает создавать предпосылки для такого явного осмысления (научных революций что-то давно не было).
Re[4]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 21.01.09 16:32
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>Информация — такой же математический объект, как энтропия, температура или скорость. Физика лишь дает хорошую почву для применения этих абстракций.


Уфффф.... Этак и курс доллара можно объявить математическим объектом.

Физика, кстати, даёт не самую хорошую почву для исследования свойств информации. Биология и социология в этом смысле намного удобнее.
Re[17]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 21.01.09 17:25
Оценка:
Здравствуйте, Voblin, Вы писали:

V>1. Количество информации, содержащейся в случайной последовательности — максимально или минимально? С точки зрения всех сжимающих — максимально. С точки зрения того, что "информация — это сведения, уменьшающие неопределённость наших знаний об исследуемом объекте" — минимально.


Для сжимающих оно максимально, т.к. дает больше всего информации об источнике данных — в каждый момент времени имеющейся информации недостаточно для предсказания. Для человека же обычно случайная последовательность информации не содержит, т.к. он не пытается строить ее модель. Пытался бы — содержала бы.

V>2. Компутеры бывают не только цифровыми (где понятие "бит" обретает вполне конкретный смысл, вычисляемый через логарифм), но и аналоговыми. Чем мерить обрабатываемую ими информацию, если при попытке найти логарифм мы всеми частями тела бьёмся о многочисленные выпирающие со всех сторон бесконечности?


А сам человек аналоговый или цифровой? Как бы то ни было, если я могу формализовать модель, о которой я получаю информацию, я могу и посчитать ее объем в битах.
Re[5]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 21.01.09 17:27
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Уфффф.... Этак и курс доллара можно объявить математическим объектом.


А каким же еще? Любое число — математический объект. А тут даже не просто число, а результат математического вычисления.

V>Физика, кстати, даёт не самую хорошую почву для исследования свойств информации. Биология и социология в этом смысле намного удобнее.


Их можно считать частными разделами физики и математики.
Re[3]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 22.01.09 06:55
Оценка:
Здравствуйте, deniok, Вы писали:

D>Как возможность объективизации соотносится с декларированной выше сентенцией "Объективно информация не существует"?


Попытаюсь объяснить. Согласно моему представлению, информация это то, что рождается в субъекте живой природы в результате познавательной деятельности. Эта информация может быть представлена (отражена, объективизирована) в некотором сообщении (данных). Например, я могу сказать «Проблема округлости квадрата неразрешима». С точки зрения русского языка фраза бессмысленна и никто не получит из нее никакой информации. Но если эта фраза пароль для секретного агента 007, то этот субъект из этой фразы извлечет информацию: «пришел связник» . Таким образом, данные лишь способ отражения информации на материальном носителе. Данные снова могут стать (а могут и не стать) информацией только после их интерпретации субъектом. В этом смысле информация всегда субъективна.

Пример. Подробный проект где-то существующего дома – это не сам дом. Проект снова сможет снова стать домом только тогда, когда кто-то построит дом по этому проекту. Но это будет уже совсем другой дом.

D>Здрасьте, видеокамера, установленная у меня дома не передает мне по сети на ноутбук информацию о том, что там творится? Если ответ да, то тогда я заменяю себя наблюдающего на запись на жесткий диск, однако перед этим, например, напускаю программку, выкидывающую статическую составляющую. Не работает ли она с поступающей информацией? Вы, конечно, можете настаивать на том, что когда на монитор смотрю я, то ко мне поступает информация, а как только обработкой начинает заниматься программа, то к ней поступают данные, но, честно говоря, такая дистинкция не кажется мне существенной.


D>Я, кстати, прекрасно понимаю, что в отличие от программы, я могу дать огромное (потенциально бесконечное) количество интерпретаций тому, что мне передается. А программа настроена только на фиксированное количество таких интерпретаций: пошла динамика в картинке => начать писать на диск; прекратилась динамика => остановить запись. Тем не менее часть "отражения объективного мира и аккомодации" я способен переложить на компьютер, причем ограниченность этого перекладывания задается лишь моей ограниченностью в рационализации своих реакций.


Все что фиксирует видеокамера и обрабатывает компьютер по заданному тобой алгоритму это лишь отражение объективного мира на разные носители и преобразование этого отражения, но никак не аккомодация. Аккомодация это свойство живой материи понимать (осмысливать) поступивший сигнал, изменять свою внутреннюю картину мира и свое поведение. Никакое преобразование данных не породит новый смысл.

Где-то так...

Все написанное, разумеется, ИМХО.
Re: Несколько дурацких вопросов по теории информации
От: cadet354 Россия
Дата: 22.01.09 07:14
Оценка:
V>P.S. Только попробуйте сказать, что это не имеет отношения к философии программирования!
Попробую , нельзя ли для бывших военных повторить два раза и медленно , какое это имеет отношение к практике.
... << RSDN@Home 1.1.4 stable SR1 rev. 568>>
Re[18]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.01.09 08:05
Оценка:
Здравствуйте, deniok, Вы писали:

D>Мне кажется, что вы хотите совместить простоту измеримости с одной стороны и учет всех нюансов интерпретации информации с другой. Так не получится. Подобную же философию можно развернуть вокруг вопроса: как это килограмм яблок и килограмм гвоздей — одно и то же? Не одно и то же, конечно. Просто масса одинаковая.


По крайней мере, мы можем сложить килограмм яблок с килограммом гвоздей и получить ответ, имеющий вполне конкретный смысл — два килограмма... тут придётся дать обобщающее понятие — предметов. Килограммы — аддитивны.

D>Если отделить "смысл для потребителя", который зависит от способа интерпретации (и может быть описан в рамках какой-то формальной или неформальной семантики), от фактического, объективного содержания информации в сообщении (или ещё где-то), то многие вопросы снимутся.


А существует ли оно вообще, это самое "объективное содержание информации"? Или это одна из форм существования теплорода?
Re[2]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 22.01.09 08:06
Оценка:
Здравствуйте, goto, Вы писали:

G>Тема очень интересна. Все упирается в определения, которые всерьез дать очень трудно (вопрос ведь был не совсем технический, как я понимаю). Скажем, являются ли информацией сформулированные законы природы? Являются ли информацией законы действующие, но человеком еще не открытые? Можно попытаться определениями отделить известное от неизвестного, субъективное от объективного. Дальше можно попытаться разобраться с тем, нуждается ли информация в материальном носителе? Может ли она быть создана, уничтожена? И с т.п.


Информация создается в конкретном субъекте и может быть уничтожена только вместе с ним. Формулировка закона природы – это способ передачи информации от одного субъекта другому. Записанный формулой закон "F = m * a" переносит информацию. Но снова эта формула сможет стать информаций, только после ее интерпретации другим субъектом.

G>Ученый сидел и писал дикторскую по истории, сохраняя ее на флэшку, а потом эту флэшку трагическим образом сломал (допустим, это был русский ученый). Исчезла ли информация? Ведь сами исторические факты никуда не делись, а ключевые мысли и выводы автора остались в его голове. Была ли вообще на флэшке информация? Если часть информации все же была утрачена, то какая?


То, что написал ученый, – материализация его мыслей (представлений и понятий) об истории. В принципе, они могут не иметь ничего общего с тем, что происходило на самом деле. На флешке будут лишь данные. Пропала флешка – пропали данные. Информация – мысли в голове ученого, никуда не делась. Еще раз напишет, будет только лучше . Сам много раз так делал.

G>Для примера, можно завернуть и такое: не информация нуждается в материальном носителе, а сама является носителем. Можно еще как-то, простор для размышлений есть. Мне кажется, эта тема сама по себе огромная и ключевая, она еще ждет "общественного" осмысления. IT-область, как я подозреваю, еще только начинает создавать предпосылки для такого явного осмысления (научных революций что-то давно не было).


ИМХО, на сегодня понимание информации и способов ее объективизации ключевой вопрос программостроения. Согласно моему представлению

Программа = Задача + Модель + Алгоритм

Например.

Задача. Сократить расходы путем автоматизации производственной деятельности. Отвечает на вопрос: зачем делаем?

Модель. Способ решения поставленной задачи. Отвечает на вопрос: что делаем?

Алгоритм, записанный на ЯП материализует решение.

Может существовать 1001 способ решения одной и той же задачи. Задачу решает человек, создавая в своей голове образ (ментальную модель) будущего решения. Если он работает один, то проблем нет. Но если он сам не в состоянии за приемлемое время реализовать будущую программную систему, то тут и живет Главная Проблема Пргораммострения: Как передать информацию из головы, ее породившей, в головы всех остальных участников проекта (синхронизировать ментальные модели).

30 лет назад Брукс писал: «Самая трудная отдельная задача в разработке программной системы — это точно решить, что разрабатывать. …Самая сложная задача программирования — получить полную и непротиворечивую спецификацию, и сущность создания программы на практике во многом состоит в отладке спецификации».

С того времени мало что изменилось. Ни UML, ни MDA, ни Generative Programming, ни проект Specware, ни MOL от Дмитриева, ни другие подходы в создании инструментов формальной спецификации программного обеспечения не решили поставленной задачи.

Может быть, когда-нибудь мы поймем, как надо формализовывать знания (наши ментальные модели) и будет нам счастье!

Re[18]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.01.09 08:28
Оценка:
Здравствуйте, deniok, Вы писали:

V>>1. Количество информации, содержащейся в случайной последовательности — максимально или минимально? [...]

D>Это зависит от целей. В первом случае задача — передать в точности ту же последовательность.

Это всё понятно, но от этого не легче.

V>>2. Компутеры бывают не только цифровыми (где понятие "бит" обретает вполне конкретный смысл, вычисляемый через логарифм), но и аналоговыми. [...]

D>Курить, например, геометрическое определение вероятности. Фишка в том, что любой непрерывный процесс можно дискретезировать, важно, чтобы в интересных диапазонах отсчеты были расставлены достаточно часто. Выделяешь подходящую полную группу событий — и вперед.

Проблема в том, что пока вычисление не добралось до аналогово-цифрового преобразования (в любой форме, через электронный ЦАП или через целевую функцию типа "попадание ракеты в самолёт / промах"), информацию, циркулирующую в аналоговом компутере мерить нечем, и никакое геометрическое определение вероятности применить нельзя. А ведь существуют системы автоматического управления, которые ни на входе, ни внутри себя, ни на выходе не имеют никаких дискретизаторов.
Re[13]: Несколько дурацких вопросов по теории информации
От: LaPerouse  
Дата: 22.01.09 08:41
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>Здравствуйте, deniok, Вы писали:


DM>>>Сначала расскажите, что такое новая информация. Та, которую хз как получить?


D>>Ну вот докажут, что P=NP. Или, более вероятно, что P\=NP. Это не будет новой информацией?


DM>Воблин скажет, что она будет старая — ее просто перенесут из компа/тетрадки в мозг.


DM>В том-то и фишка, что ответ всегда зависит от субъекта — есть у него уже такое знание или нет. Если знание или несложный способ его излечения у нас есть, для нас это не новая информация. Если нет — кажется новой, пока мы ее не получили. Вопросы о 10001-м простом числе и P=NP не отличаются принципиально. Если субъект — человечество, то на первый вопрос ему ответ известен, а на второй — нет. Но жителям Сириуса он вполне может быть известен, для них это не будет новой информацией.


Ага, правильно — новой. На самом деле, информация — она всегда информация. Вне зависимости от того, известны ли сущности, ею определяемые наблюдателю или нет. Скажем, когда мне говорят, что скорость звука — 340 м/c, при том, что мне это известно еще с 7 класса, от этого утверждение "скорость звука — 340 м/c" не перестает быть информацией. Просто количество информации, которое несет в себе это утверждение, будет равно конкретно для меня нулю. Таким образом относительно понятие количество информации, а не сама информация. Новой информацией будет так информация, количество которой отлично для данного наблюдателя от нуля.
... << RSDN@Home 1.2.0 alpha 4 rev. 1089>>
Социализм — это власть трудящихся и централизованная плановая экономика.
Re[18]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.01.09 08:53
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>А сам человек аналоговый или цифровой? Как бы то ни было, если я могу формализовать модель, о которой я получаю информацию, я могу и посчитать ее объем в битах.


Думаю, и на микро-, и на макроуровне есть процессы, которые корректно рассматривать только как аналоговые, и есть процессы, которые корректно рассматривать только как цифровые.

Например, прохождение импульса по нервному волокну — процесс цифровой, а "широковещательные сообщения" типа состояний радости, грусти, тревожности, гнева, голода, жажды и т.д. кодируются концентрациями гормонов в мозгу, которые хоть и дискретны по своей природе (количество молекул гормона выражается натуральным числом), но дискретизация столь мелкая и неоднозначная (важно не только количество, но и локализация молекул), что эти сигналы можно и нужно считать аналоговыми.
Re[5]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 22.01.09 09:09
Оценка:
Здравствуйте, Sinclair, Вы писали:

S>Вот интересно, когда электромагнитные колебания существуют сами по себе, то они, возможно, несут какие-то данные.

S>А когда они взаимодействуют с антенной сотового телефона, то телефон волшебным образом извлекает из них информацию: "пришла SMS с таким-то текстом".
S>Разве это не информация? Ведь никакого текста в колебаниях волн не было.
S>Ну, в принципе, можно трактовать это и как данные. Которые, типа, требуют субъекта живой природы для интерпретации. Ага, получил значит водитель SMS "заведи машину, скоро поедем" — проинтерпретировал, завёл.
S>Хотя, то же самое могла сделать и GSM-based сигнализация: с неменьшим успехом она интерпретирует SMS и заводит машину.
S>Есть ли внутри сигналки информация? Или там по-прежнему данные?

Согласно Шеннону все, что циркулирует в кибернетической системе, — это не информация, а сигналы (или данные, я их не различаю). Внутри «GSM-based сигнализации» не рождается информация. В ней просто заложен (человеком!) алгоритм обработки поступивших сигналов, и изменения своего поведения.

S>Интересно. А что такое "новый смысл"? Я привел примеры преобразования данных. Ок, человек умеет еще и "менять преобразователь" по ходу пьесы. Ну, так на то и фон-Неймановская архитектура с изменяемой программой. У меня вот винда выкачивает апдейты для самой себя с завидной регулярностью, постепенно обучаясь интерпретировать всё новую и новую информацию. Где граница?


Есть мнение, например Р.Пенроуз, и я его разделяю, что в рамках фон-неймановской архитектуры интеллект (порождение новых знаний) неосуществим. Сколько бы яблок не упало на фон-неймановский компьютер, он никогда не вычислит закон гравитации.


S>В мозгу ведь тоже происходит отображение объективного мира на некоторых носитель, и некоторое преобразование этого отношения.


Это обязательно. Только никто пока не видел этот носитель, и никто не знает, как он преобразовывает отражения и порождает понятия.

S>Что есть "осмысливание" и чем оно отличается от преобразования — я, честно говоря, не понимаю. Вот росток сосны (упомянутый IT) вполне себе осмысливает отсуствие света и направление гравитпции, делает некоторые выводы и растёт. При этом осмысливания в нём не намного больше, чем в стрелке компаса. То есть в нём по-прежнему используются данные, а никак не информация в твоём определении.


ИМХО, осмысливанием наделена вся живая природа. М.б. осмысливание это реализация некого метаалгоритма, заложенного в систему, в которой мы существуем, Вселенским разумом, Богом или Космогоническим взрывом.

Re[8]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.01.09 09:09
Оценка:
Здравствуйте, SergH, Вы писали:

V>>А я что? Где-то ратовал за кондовую механистичную детерминированность? Мне просто непонятно, как весь этот бардак с квантовыми неопределённостями может служить источником информации. Источником шума в канале связи — пожалуйста, а самым-самым первичным источником "информации-сырца" — увольте.


SH>Ммм.. Могу толкнуть бездоказательную идею

SH>Только, боюсь, она не найдёт понимания.

Найдёт понимание или нет — не столь важно. Было бы любопытно... Если, конечно, не в напряг.
Re[4]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 22.01.09 09:15
Оценка:
Здравствуйте, craft-brother, Вы писали:

CB>Попытаюсь объяснить. Согласно моему представлению, информация это то, что рождается в субъекте живой природы в результате познавательной деятельности. Эта информация может быть представлена (отражена, объективизирована) в некотором сообщении (данных). Например, я могу сказать «Проблема округлости квадрата неразрешима». С точки зрения русского языка фраза бессмысленна и никто не получит из нее никакой информации. Но если эта фраза пароль для секретного агента 007, то этот субъект из этой фразы извлечет информацию: «пришел связник» . Таким образом, данные лишь способ отражения информации на материальном носителе. Данные снова могут стать (а могут и не стать) информацией только после их интерпретации субъектом. В этом смысле информация всегда субъективна.


Это какой-то солипсизм, прошу прощения. Интерпретации (за исключением чисто чувственных, действительно субъективных) тоже прекрасно объективизируются. В том, что интерпретации делаются субъектом никто не сомневается. Но любые рациональные интерпретации могут быть переложены на компьютер. Иначе говоря, рационально воспринимаемая информация — измерима. "То, что рождается в субъекте живой природы в результате познавательной деятельности" — это с моей точки зрения не информация, а знания.

CB>Все что фиксирует видеокамера и обрабатывает компьютер по заданному тобой алгоритму это лишь отражение объективного мира на разные носители и преобразование этого отражения, но никак не аккомодация. Аккомодация это свойство живой материи понимать (осмысливать) поступивший сигнал, изменять свою внутреннюю картину мира и свое поведение. Никакое преобразование данных не породит новый смысл.


Готов привести контрпример к последнему утверждению. Пусть есть некоторый вычислитель, который принимает код на некотором языке и выполняет его, однако имеет ограниченный объем памяти. Пусть есть валидная с точки зрения языка программа, которая, однако, потребляет памяти больше, чем есть у вычислителя. Она бессмысленна для этого вычислителя, поскольку он не может ее выполнить. Прогоним программу через оптимизатор, который уменьшает потребление памяти. После этого, если оптимизатору удалось уменьшить потребление памяти в достаточной мере, преобразованная программа может быть выполнена на вычислителе — она приобрела смысл для него. Преобразование породило смысл.

Точно так же текст на японском языке, не имевший для меня никакого смысла, приобретает его при напускании на этот текст автоматического переводчика на русский или английский.

CB>Все написанное, разумеется, ИМХО.


Аналогично.
Re[6]: Несколько дурацких вопросов по теории информации
От: Sinclair Россия https://github.com/evilguest/
Дата: 22.01.09 09:31
Оценка:
Здравствуйте, craft-brother, Вы писали:


CB>Согласно Шеннону все, что циркулирует в кибернетической системе, — это не информация, а сигналы (или данные, я их не различаю). Внутри «GSM-based сигнализации» не рождается информация. В ней просто заложен (человеком!) алгоритм обработки поступивших сигналов, и изменения своего поведения.

Ну почему обязательно человеком. Алгоритм в ней заложен прошивалкой алгоритмов.

CB>Есть мнение, например Р.Пенроуз, и я его разделяю, что в рамках фон-неймановской архитектуры интеллект (порождение новых знаний) неосуществим. Сколько бы яблок не упало на фон-неймановский компьютер, он никогда не вычислит закон гравитации.

А я это мнение не разделяю. Вот на "не-фон-неймановский" компьютер ограничения наложены заранее, и поскольку программа его не может сама себя изменить, то яблоками бросать смысла не имеет.

Фон-неймановская архитектура всего лишь обеспечивает нам возможность писать само- и взаимо-модифицирующие программы.
CB>Это обязательно. Только никто пока не видел этот носитель, и никто не знает, как он преобразовывает отражения и порождает понятия.
"Не знает" и "непознаваемо" — разные вещи. Не вижу никаких препятствий к тому, чтобы построить мышление на основе той же логики. По-прежнему нет никаких признаков опровержимости тезиса Чёрча.

CB>ИМХО, осмысливанием наделена вся живая природа. М.б. осмысливание это реализация некого метаалгоритма, заложенного в систему, в которой мы существуем, Вселенским разумом, Богом или Космогоническим взрывом.

Я советую не употреблять слова только за то, что они длинные и красивые. Простой пример: вирус — это еще химия или уже жизнь?
Тараканы — они как, осмысливают, или действуют по алгоритму? Если не осмысливают, то осмысливает ли рыба? А собаки — они осмысливают, или просто алгоритм настолько сложный, что с первого взгляда не прослеживается?
... << RSDN@Home 1.2.0 alpha rev. 677>>
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re[7]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 22.01.09 10:12
Оценка:
Здравствуйте, Sinclair, Вы писали:

S>Здравствуйте, craft-brother, Вы писали:



CB>>Согласно Шеннону все, что циркулирует в кибернетической системе, — это не информация, а сигналы (или данные, я их не различаю). Внутри «GSM-based сигнализации» не рождается информация. В ней просто заложен (человеком!) алгоритм обработки поступивших сигналов, и изменения своего поведения.

S>Ну почему обязательно человеком. Алгоритм в ней заложен прошивалкой алгоритмов.

А в "прошивалку" кто заложил алгоритм? Другая прошивалка?

CB>>Есть мнение, например Р.Пенроуз, и я его разделяю, что в рамках фон-неймановской архитектуры интеллект (порождение новых знаний) неосуществим. Сколько бы яблок не упало на фон-неймановский компьютер, он никогда не вычислит закон гравитации.

S>А я это мнение не разделяю. Вот на "не-фон-неймановский" компьютер ограничения наложены заранее, и поскольку программа его не может сама себя изменить, то яблоками бросать смысла не имеет.

S>Фон-неймановская архитектура всего лишь обеспечивает нам возможность писать само- и взаимо-модифицирующие программы.

CB>>Это обязательно. Только никто пока не видел этот носитель, и никто не знает, как он преобразовывает отражения и порождает понятия.
S>"Не знает" и "непознаваемо" — разные вещи. Не вижу никаких препятствий к тому, чтобы построить мышление на основе той же логики. По-прежнему нет никаких признаков опровержимости тезиса Чёрча.

В мышлении помимо логических расчетов есть еще интуиция (не спрашивай меня что это такое, не знаю, но она есть), поэтому машина мыслить не будет , никогда. Да, кстати, Чёрч говорил именно про интуитивную вычислимость. Может быть он знал, что такое интуиция, только никому не сказал?

CB>>ИМХО, осмысливанием наделена вся живая природа. М.б. осмысливание это реализация некого метаалгоритма, заложенного в систему, в которой мы существуем, Вселенским разумом, Богом или Космогоническим взрывом.

S>Я советую не употреблять слова только за то, что они длинные и красивые. Простой пример: вирус — это еще химия или уже жизнь?
S>Тараканы — они как, осмысливают, или действуют по алгоритму? Если не осмысливают, то осмысливает ли рыба? А собаки — они осмысливают, или просто алгоритм настолько сложный, что с первого взгляда не прослеживается?

Ну, вроде бы, я совета не просил . Может нам не стоит мнить себя венцом творения? Тараканы с крысами, как вид, живут намного дольше. И еще нас переживут. Про собак не знаю. А кошки (общаюсь 15 лет) мало того, что сами мыслят, да еще, гады, и мои мысли умеют считывать. Уверен.
Re[5]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 22.01.09 10:44
Оценка:
Здравствуйте, deniok, Вы писали:

D>Здравствуйте, craft-brother, Вы писали:


CB>>Попытаюсь объяснить. Согласно моему представлению, информация это то, что рождается в субъекте живой природы в результате познавательной деятельности. Эта информация может быть представлена (отражена, объективизирована) в некотором сообщении (данных). Например, я могу сказать «Проблема округлости квадрата неразрешима». С точки зрения русского языка фраза бессмысленна и никто не получит из нее никакой информации. Но если эта фраза пароль для секретного агента 007, то этот субъект из этой фразы извлечет информацию: «пришел связник» . Таким образом, данные лишь способ отражения информации на материальном носителе. Данные снова могут стать (а могут и не стать) информацией только после их интерпретации субъектом. В этом смысле информация всегда субъективна.


D>Это какой-то солипсизм, прошу прощения. Интерпретации (за исключением чисто чувственных, действительно субъективных) тоже прекрасно объективизируются. В том, что интерпретации делаются субъектом никто не сомневается. Но любые рациональные интерпретации могут быть переложены на компьютер. Иначе говоря, рационально воспринимаемая информация — измерима. "То, что рождается в субъекте живой природы в результате познавательной деятельности" — это с моей точки зрения не информация, а знания.


Ну и где это я про солипсизм говорил? Ткни пальцем! А как ты разделяешь знания и информацию? "Волга впадает в Каспийское море" это что? Знание или информация?

CB>>Все что фиксирует видеокамера и обрабатывает компьютер по заданному тобой алгоритму это лишь отражение объективного мира на разные носители и преобразование этого отражения, но никак не аккомодация. Аккомодация это свойство живой материи понимать (осмысливать) поступивший сигнал, изменять свою внутреннюю картину мира и свое поведение. Никакое преобразование данных не породит новый смысл.


D>Готов привести контрпример к последнему утверждению. Пусть есть некоторый вычислитель, который принимает код на некотором языке и выполняет его, однако имеет ограниченный объем памяти. Пусть есть валидная с точки зрения языка программа, которая, однако, потребляет памяти больше, чем есть у вычислителя. Она бессмысленна для этого вычислителя, поскольку он не может ее выполнить. Прогоним программу через оптимизатор, который уменьшает потребление памяти. После этого, если оптимизатору удалось уменьшить потребление памяти в достаточной мере, преобразованная программа может быть выполнена на вычислителе — она приобрела смысл для него. Преобразование породило смысл.


Для компьютера и правильная, и неправильная программы имеют одинаковый смысл = пусто.

D>Точно так же текст на японском языке, не имевший для меня никакого смысла, приобретает его при напускании на этот текст автоматического переводчика на русский или английский.


А здесь о другом. Смысл в переводе на русский язык (в перекодированных данных) появится только у тебя (и не факт, что это будет тот же самый смысл, который закладывал автор текста!), а у канадского эскимоса он будет, по-прежнему, = пусто.

Вот.
Re[15]: Несколько дурацких вопросов по теории информации
От: LaPerouse  
Дата: 22.01.09 10:54
Оценка:
Здравствуйте, deniok, Вы писали:

D>Здравствуйте, LaPerouse, Вы писали:


LP>>Ага, правильно — новой. На самом деле, информация — она всегда информация. Вне зависимости от того, известны ли сущности, ею определяемые наблюдателю или нет. Скажем, когда мне говорят, что скорость звука — 340 м/c, при том, что мне это известно еще с 7 класса, от этого утверждение "скорость звука — 340 м/c" не перестает быть информацией. Просто количество информации, которое несет в себе это утверждение, будет равно конкретно для меня нулю. Таким образом относительно понятие количество информации, а не сама информация. Новой информацией будет так информация, количество которой отлично для данного наблюдателя от нуля.


D>"Количество для меня" — это по-моему вообще бессмыслица. Я же могу начать размышлять о том, "почему он мне сейчас сказал, что скорость звука — 340 м/c. Что он имел ввиду?". И сделать некоторые выводы, возможно полезные. А значит уже не ноль.


На самом деле тут имхо невольная подмена понятий. "Почему он мне сейчас сказал, что скорость звука — 340 м/c. Что он имел ввиду?" — ты уже пытаешься воспринимать утверждение не просто как голый факт "скорость звука — 340 м/c", а как факт, сказанный кем-то, то есть содержащий в себе еще какую-то неявную информацию, например, контекст вашего разговора с этим человеком. А на самом деле это всего лишь утверждение, которое может быть высказано собеседником или записано в файле с расширением pl:

v(sound, 340).

D>То есть моя мысль в том, что присваивать численные характеристики таким вещам не имеет особого смысла. О какой-то формализации имеет смысл говорить, если мы четко и исчерпывающе описали процедуру интерпретации.


На самом деле привязка идет не к конкретному наблюдателю, а к системе знаний наблюдателя о конкретном мире. Если факт v(sound, 340) уже хранится в нашей базе знаний, то введенное пользователем значения 340 для скорости звука ничего не изменит в нашей базе знаний, то есть количество информации, которое несет утверждение равно нулю.
... << RSDN@Home 1.2.0 alpha 4 rev. 1089>>
Социализм — это власть трудящихся и централизованная плановая экономика.
Re[3]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.01.09 11:12
Оценка:
Здравствуйте, craft-brother, Вы писали:

CB>ИМХО, на сегодня понимание информации и способов ее объективизации ключевой вопрос программостроения.


Ага. Более того, то, чем чаще всего и занимаются информационные технологии — это именно объективизация информации.

Объективизировать мысль в текст люди научились давно. Объективизировать видимое изображение в рисунок — тоже. Объективизировать звук — в позапрошлом веке.

Сейчас мы можем объективизировать очень много чего. Даже такую жёсткую виртуальщину как финансово-экономическое состояние организации в бухгалтерскую базу данных.

CB>Может быть, когда-нибудь мы поймем, как надо формализовывать знания (наши ментальные модели) и будет нам счастье!

CB>

Да уж, жаль, что наше основное средство формализации (текст на естественном языке) не обладает ни полнотой, ни непротиворечивостью. И гнусная теорема Гёделя нам говорит, что в этом смысле у нас вообще нет никаких перспектив.
Re[6]: Несколько дурацких вопросов по теории информации
От: deniok Россия  
Дата: 22.01.09 13:32
Оценка:
Здравствуйте, craft-brother, Вы писали:

CB> А как ты разделяешь знания и информацию? "Волга впадает в Каспийское море" это что? Знание или информация?


Знание — это утверждения, верифицированные с помощью некоторого критерия истинности. Так что утверждение "Волга впадает в Каспийское море" это информация, которая, будучи проинтерпретирована в рамках науки физическая география, становится знанием (можно я не буду формализовывать здесь критерии географической истинности?). А при интерпретации в рамках, например, грамматики, это будет незавершенное предложение (точки в конце нет). При этом никакого собственно грамматического знания это утверждение не несёт.

CB>Для компьютера и правильная, и неправильная программы имеют одинаковый смысл = пусто.


D>>Точно так же текст на японском языке, не имевший для меня никакого смысла, приобретает его при напускании на этот текст автоматического переводчика на русский или английский.


CB>А здесь о другом. Смысл в переводе на русский язык (в перекодированных данных) появится только у тебя (и не факт, что это будет тот же самый смысл, который закладывал автор текста!), а у канадского эскимоса он будет, по-прежнему, = пусто.


Я понимаю смысл чего-либо как семантическую функцию из осмысляемого домена в другой (целевой) домен. Скажем слово "дерево" понятно нам (имеет смысл), поскольку мы отображаем это слово в объект реального мира. А слово "кщхри" не имеет смысла, поскольку не входит в область определения какой-либо семантической функции. Ясно, что таких функций может существовать много (то есть из текста мы способны извлекать целый спектр смыслов), но неясно почему мы запрещаем использование это слово для описания действий компьютера. Чем идея семантических функций плоха для формализации понятия смысла?

В современном computer science, кстати, описывать формальную семантику программ — довольно распространенное явление. Если мы признаем, например, что смысл программы сортировки — в получении отсортированного контейнера, то мы можем формально наложить это требование и формально же доказать, что для данной программы оно выполняется. Или (полу)автоматически породить подобную программу на основе наложенных формальных требований. Welcome to COQ и Agda
Re[9]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 22.01.09 14:28
Оценка:
Здравствуйте, Voblin, Вы писали:

V>>>А я что? Где-то ратовал за кондовую механистичную детерминированность? Мне просто непонятно, как весь этот бардак с квантовыми неопределённостями может служить источником информации. Источником шума в канале связи — пожалуйста, а самым-самым первичным источником "информации-сырца" — увольте.


SH>>Ммм.. Могу толкнуть бездоказательную идею

SH>>Только, боюсь, она не найдёт понимания.

V>Найдёт понимание или нет — не столь важно. Было бы любопытно... Если, конечно, не в напряг.


Идея следующая. Вспоминаем наших друзей Платона и Гегеля (я их, правда, скорее понаслышке)... И понеслась

"Квантовый шум" это проявление в механистичном, детерминированном, материальном мире мира идей. Шумом он кажется только с позиции материального мира. Хаос это высшая форма порядка -- в том смысле, что высшая относительно нашего уровня понимания. Потому собственно и кажется хаосом.

С этой точки зрения он может быть источником мышления -- процесса, протекающего там, и приводящего к изменениям здесь. И источником новой информации. Новой в самом сильном смысле этого слова -- принципиально не выводимой из предыдущего состояния материального мира.
Делай что должно, и будь что будет
Re[4]: Несколько дурацких вопросов по теории информации
От: nikov США http://www.linkedin.com/in/nikov
Дата: 22.01.09 14:48
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Да уж, жаль, что наше основное средство формализации (текст на естественном языке) не обладает ни полнотой, ни непротиворечивостью. И гнусная теорема Гёделя нам говорит, что в этом смысле у нас вообще нет никаких перспектив.


Ничего такого теорема Гёделя не говорит.
Re[6]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.01.09 14:52
Оценка:
Здравствуйте, D. Mon, Вы писали:

DM>Их можно считать частными разделами физики и математики.


Этак мы дойдём до того, что и литературоведение тоже объявим частным разделом физики и математики
Re[10]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.01.09 15:06
Оценка:
Здравствуйте, SergH, Вы писали:

SH>"Квантовый шум" это проявление в механистичном, детерминированном, материальном мире мира идей. Шумом он кажется только с позиции материального мира. Хаос это высшая форма порядка -- в том смысле, что высшая относительно нашего уровня понимания. Потому собственно и кажется хаосом.


SH>С этой точки зрения он может быть источником мышления -- процесса, протекающего там, и приводящего к изменениям здесь. И источником новой информации. Новой в самом сильном смысле этого слова -- принципиально не выводимой из предыдущего состояния материального мира.


Почему же "боюсь, она не найдёт понимания"? Так думают многие.

Р.Пенроуз, например, травмировавшись о теорему Гёделя, тоже пришёл к выводу о необходимости "первичного" источника информации в мозгу. И нашёл его в квантовой свёртке (кто ищет, тот всегда найдёт...). И даже книжку об этом написал.

Но юмор ситуации в том, что теорема Гёделя о неполноте неприменима к мозгу сразу по нескольким причинам. Так что зря он в квантовую механику ходил.
Впрочем, не зря. Без этого мы не получили бы книжку, такую замечательную во всех отношениях кроме... самого предмета обсуждения
Re[11]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 22.01.09 15:11
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Р.Пенроуз, например, травмировавшись о теорему Гёделя, тоже пришёл к выводу о необходимости "первичного" источника информации в мозгу. И нашёл его в квантовой свёртке (кто ищет, тот всегда найдёт...). И даже книжку об этом написал.


V>Но юмор ситуации в том, что теорема Гёделя о неполноте неприменима к мозгу сразу по нескольким причинам.


По каким? И как то, что я написал связано с Гёделем?
Делай что должно, и будь что будет
Re[12]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.01.09 16:58
Оценка:
Здравствуйте, SergH, Вы писали:

V>>Но юмор ситуации в том, что теорема Гёделя о неполноте неприменима к мозгу сразу по нескольким причинам.


SH>По каким? И как то, что я написал связано с Гёделем?


Если память не изменяет, рассуждение там было примерно такое:
1. Если мышление может быть смоделировано компьютером, то и мышление Автора может быть смоделировано компьютером.
2. Выполнение программы компьютером функционально аналогично выполнению программы машиной Тьюринга.
3. Конечное вычисление, производимое машиной Тьюринга, является изолированной непротиворечивой формальной системой.
4. Из теоремы Гёделя следует, что изолированная непротиворечивая формальная система не может быть полной (т.е. не содержать в себе истинных утверждений, недоказуемых средствами самой этой системы).
5. Вспоминая свою математическую деятельность, Автор находит примеры своих математических открытий, ни из каких других существовавших математических разделов не "вычисляемых".
6. Следовательно, в мозгу Автора есть нечто такое, что делает его круче любой формальной системы. Нечто такое, что извлекает информацию откуда-то помимо исходных данных. А это неподвластно машине Тьюринга.
7. Поскольку все компьютеры функционально аналогичны машине Тьюринга, мышление Автора не может быть смоделировано компьютером.
8. Единственный известный Автору источник "первичной" информации, не обязанной быть следствием никакой другой информации — квантовая свёртка.
9. Следовательно, в мозгу Автора есть некий механизм, который присосался к этому источнику. Притом присосался так хитро, что выкачивает оттуда не "случайные числа", а информацию, помогающую решать задачи. А так как внутри нейрона всё очень маленькое, найти там квантовые эффекты — дело техники. Вопрос о том, как из квантовых явлений извлекается новая информация, можно оставить открытым. Так сказать, подарочек будущим исследователям.

Всё, конечно, хорошо и красиво, но только мозг не является ни изолированной, ни непротиворечивой системой.

Кроме того, не всякий компьютер (программа) является аналогом машины Тьюринга. Попробую пояснить.
Вот классическая машина Тьюринга (которая есть формальная изолированная непротиворечивая система):
                      (ТМ)
                       v
 ...[0][1][1][1][0][1][0][0][1][1][1][1][0][0][0][1]...

Убираем изолированность:
                      (ТМ)
                       v
 ...[0][1][1][1][0][1][0][0][1][1][1][1][0][0][0][1]...
    _______|__________      __________|_____________
   (датчик уровня воды)    (датчик направления ветра) ...

Убираем непротиворечивость. Например, так:
            (ТМ1)          (ТМ2)         ... (ТМn)
              v              v                 v
 ...[0][1][1][1][0][1][0][0][1][1][1][1][0][0][0][1]...
    _______|__________      __________|_____________
   (датчик уровня воды)    (датчик направления ветра) ...

Окончательный финал-апофеоз вносим, убирая из "системы команд" оператор останова. Т.е. останавливать машину, если нужно, будем рубильником. У нас не будет "вычисления". У нас будет процесс.
Т.е. локально, пока ТМ не натыкается на другую ТМ или на датчик, она работает как обычная, классическая ТМ. Но в целом система сразу выпрыгивает и из Гёделя, и из многих других теорем.

Вот теперь "принципиальная схема" стала хоть как-то походить на мозги. Можно ли такое чудо смоделировать на обычном компутере? Да запросто! По сути, почти каждая информационная система работает по такой схеме.
Re[13]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 22.01.09 17:12
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Если память не изменяет, рассуждение там было примерно такое:


..

Ага, ну это он попытался что-то доказать. Я ничего не доказываю. Такие вещи вообще доказать невозможно Как и опровергнуть. Можно попытаться доказать избыточность -- что ты и пытаешься сделать. Типа "по Оккаму не проходит".

Моя идея -- на уровне того, что на клавиатуре 100 клавиш, и нажатие каждой конкретной компьютер может воспринимать как хаотичное. И считать это явление шумом где-то на периферии. А между тем это не совсем шум, и, как выясняется, именно эти сигналы по большей части компьютером и управляют. Ну, как-то так.

Т.е. квантовые эффекты это точки проникновения того мира в этот, точки воздействия.

V>Всё, конечно, хорошо и красиво, но только мозг не является ни изолированной, ни непротиворечивой системой.


V>Кроме того, не всякий компьютер (программа) является аналогом машины Тьюринга. Попробую пояснить.

V>Вот классическая машина Тьюринга (которая есть формальная изолированная непротиворечивая система):
V>
V>                      (ТМ)
V>                       v
V> ...[0][1][1][1][0][1][0][0][1][1][1][1][0][0][0][1]...
V>

V>Убираем изолированность:
V>
V>                      (ТМ)
V>                       v
V> ...[0][1][1][1][0][1][0][0][1][1][1][1][0][0][0][1]...
V>    _______|__________      __________|_____________
V>   (датчик уровня воды)    (датчик направления ветра) ...
V>


Недетерминированная МТ моделирует это?
Она моделируется на обычной.

V>Убираем непротиворечивость. Например, так:

V>
V>            (ТМ1)          (ТМ2)         ... (ТМn)
V>              v              v                 v
V> ...[0][1][1][1][0][1][0][0][1][1][1][1][0][0][0][1]...
V>    _______|__________      __________|_____________
V>   (датчик уровня воды)    (датчик направления ветра) ...
V>


Многоголовочные МТ тоже моделируются обычной.

V>Окончательный финал-апофеоз вносим, убирая из "системы команд" оператор останова. Т.е. останавливать машину, если нужно, будем рубильником. У нас не будет "вычисления". У нас будет процесс.


Ты предлагаешь исключить понятие "решение". Тогда при чём тут вообще Тьюринг? Он решениями занимался. И Гёдель. Ты отвечаешь не в рамках вопроса Пенроуза, ты говоришь ему "друг, твой вопрос сформулирован некорректно". Обоснуй.

Впрочем, это к Пенроузу, я про Гёделя ничего не говорил. И про особенности мозга тоже.

V>Т.е. локально, пока ТМ не натыкается на другую ТМ или на датчик, она работает как обычная, классическая ТМ. Но в целом система сразу выпрыгивает и из Гёделя, и из многих других теорем.


Не, не выпрыгивает...

V>Вот теперь "принципиальная схема" стала хоть как-то походить на мозги. Можно ли такое чудо смоделировать на обычном компутере? Да запросто! По сути, почти каждая информационная система работает по такой схеме.


А обычный компьютер можно смоделировать на обычной МТ.
Делай что должно, и будь что будет
Re[14]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.01.09 18:12
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Ага, ну это он попытался что-то доказать. Я ничего не доказываю. Такие вещи вообще доказать невозможно Как и опровергнуть. Можно попытаться доказать избыточность -- что ты и пытаешься сделать. Типа "по Оккаму не проходит".


Я просто показываю, что теорема применена неправильно (на лицо выход за пределы области применимости). Это не значит, что сам вывод неправильный. Может быть и правильный, просто его надо было доказать как-то по-другому.

SH>Т.е. квантовые эффекты это точки проникновения того мира в этот, точки воздействия.


Это уже вопрос веры. А от вопросов веры мы бегаем как от огня

SH>А обычный компьютер можно смоделировать на обычной МТ.


Можно. Только для этого сначала надо взять обычный компьютер, каким-то образом снять его начальное состояние (ну, с этим принципиальных проблем нет) и прогнать его в "штатном режиме", попутно записывая всю информацию поступающую на вход. В частности, нужно записать нажатия на кнопки клавиатуры, которые я сейчас нажимаю, пакеты, приходящие из сети (периодически перечитывается страничка РБК), движения мышки и всякое прочее другое. Не забыть точно разложить по времени чтобы таймерные прерывания моделировались точно в нужный момент. Вот теперь можно начинать моделирование "на обычной МТ".
О, шайтан! Наша "обычная МТ" сама пишет сообщение в RSDN!!!!!

Короче, как-то криво получается наше моделирование. Что это за моделирование, если перед его началом необходимо штатно поюзать сам объект, а моделью только добиться повторения произошедших событий?

Если же ты намекаешь на то, что внутренности моего бука можно заменить на МТ так, чтобы я ничего не заметил, то я с этим соглашусь. Да, можно. Ну и что? Даже такой жутко детерминированный объект, будучи связанным множеством инф. связей с нашим жутко недетерминированным миром, сам быстро станет таким же недетерминированным (заглючит, завирусуется, хакнется злобным хакером). Предсказать состояние МТ, подключённой к Интернету, по клавиатуре которой ходит кот, невозможно.

Сферического коня в вакууме опять не получится. Потому что не в вакууме.
Re[15]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 22.01.09 18:19
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Это уже вопрос веры. А от вопросов веры мы бегаем как от огня


Ну я сразу сказал, что есть бездоказательная идея. Ты же сам попросил -- мне не жалко

Кстати, как там объективность мира -- вопрос веры или нет? Я к тому, что бегать бегаем, а принимать принимаем.

SH>>А обычный компьютер можно смоделировать на обычной МТ.

V>Можно. Только ....

Так, ты опять применяешь МТ не по назначению.
Ты либо не выходи за область использования, либо не использую МТ.

А любые поступающие извне данные моделируются недетерминированной МТ.
Которая -- сюрприз -- моделируется обычной.
Делай что должно, и будь что будет
Re[16]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 22.01.09 18:34
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Ну я сразу сказал, что есть бездоказательная идея. Ты же сам попросил -- мне не жалко


Нет проблем. Я ж был предупреждён, что идея бездоказательная

SH>Кстати, как там объективность мира -- вопрос веры или нет? Я к тому, что бегать бегаем, а принимать принимаем.


Тоже вопрос веры. Я, например, почти уверен, что мир существует объективно. Может быть, я думаю так потому, что не употребляю наркотики?

SH>А любые поступающие извне данные моделируются недетерминированной МТ.

SH>Которая -- сюрприз -- моделируется обычной.

Теоретически — да, но уже через короткое время количество "ветвей" переваливает за количество атомов во вселенной, и теория не имеет шансов стать практикой. К тому же, как даже теоретически "ветвить" аналоговый вход, не применяя дискретизацию?
Re[17]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 22.01.09 18:50
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Тоже вопрос веры. Я, например, почти уверен, что мир существует объективно. Может быть, я думаю так потому, что не употребляю наркотики?


Употребляешь ты наркотики или нет -- тоже вопрос веры и определений

SH>>А любые поступающие извне данные моделируются недетерминированной МТ.

SH>>Которая -- сюрприз -- моделируется обычной.

V>Теоретически — да, но уже через короткое время количество "ветвей" переваливает за количество атомов во вселенной, и теория не имеет шансов стать практикой. К тому же, как даже теоретически "ветвить" аналоговый вход, не применяя дискретизацию?


Я тебе последний раз сообщаю: ты используешь МТ не по назначению.
И Гёделя тоже.

И очень отклоняешься в сторону. Возможно, Пенроуз бы поддержал разговор на эту тему, особенно если его аргументация как-то связана с тем, что ты пишешь. Но я не Пенроуз.
Делай что должно, и будь что будет
Re[3]: Несколько дурацких вопросов по теории информации
От: goto Россия  
Дата: 22.01.09 22:57
Оценка:
Здравствуйте, craft-brother, Вы писали:

CB>Здравствуйте, goto, Вы писали:


G>>Тема очень интересна. Все упирается в определения, которые всерьез дать очень трудно (вопрос ведь был не совсем технический, как я понимаю). Скажем, являются ли информацией сформулированные законы природы? Являются ли информацией законы действующие, но человеком еще не открытые? Можно попытаться определениями отделить известное от неизвестного, субъективное от объективного. Дальше можно попытаться разобраться с тем, нуждается ли информация в материальном носителе? Может ли она быть создана, уничтожена? И с т.п.


CB>Информация создается в конкретном субъекте и может быть уничтожена только вместе с ним. Формулировка закона природы – это способ передачи информации от одного субъекта другому. Записанный формулой закон "F = m * a" переносит информацию. Но снова эта формула сможет стать информаций, только после ее интерпретации другим субъектом.


Конечно, можно и так, но это, по-моему, ближе к понятию "знание". Тут логика — хороший носитель, канал и сжималка (до кучи). Хотелось бы поискать определения и рассуждения, не привязанные прямолинейно к передаче между субъектами и, возможно, к понятию интерпретации (я подробно пока не интересовался возможными наработками в этой области).

G>>Ученый сидел и писал дикторскую по истории, сохраняя ее на флэшку, а потом эту флэшку трагическим образом сломал (допустим, это был русский ученый). Исчезла ли информация? Ведь сами исторические факты никуда не делись, а ключевые мысли и выводы автора остались в его голове. Была ли вообще на флэшке информация? Если часть информации все же была утрачена, то какая?


CB>То, что написал ученый, – материализация его мыслей (представлений и понятий) об истории. В принципе, они могут не иметь ничего общего с тем, что происходило на самом деле. На флешке будут лишь данные. Пропала флешка – пропали данные. Информация – мысли в голове ученого, никуда не делась. Еще раз напишет, будет только лучше . Сам много раз так делал.


Тот пример был чем-то типа "шаблона". Вывод прямо-таки оптимистично-эзотерический: с утратой [каких-то форм информации/знаний/данных] мы становимся богаче и лучше! Разумеется, это мой вариант интерпретации .

...
CB>ИМХО, на сегодня понимание информации и способов ее объективизации ключевой вопрос программостроения. Согласно моему представлению

CB>Программа = Задача + Модель + Алгоритм

...

CB>Может быть, когда-нибудь мы поймем, как надо формализовывать знания (наши ментальные модели) и будет нам счастье!


CB>


Да, проблема общая, но в ИТ проявляется, как мне кажется, относительно явно и формально. Ит — область большая, разнообразная, пластичная, в то же время детерминированная, так что в ней возможны интересные эксперименты со знанием и информацией.

Интересено, есть ли исследования или рассуждения о, так сказать, фундаментальном устройстве, структурных особенностях самой информации (не данных, не алгоритмов. Мне трудно четко сформулировать)? Может, философские работы или даже какие-то полубезумные околофизические, околокосмологические? Раз уж такая тема попалась... Только не "Матрица"
Re[7]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 23.01.09 05:21
Оценка:
Здравствуйте, Sinclair, Вы писали:

CB>>Есть мнение, например Р.Пенроуз, и я его разделяю, что в рамках фон-неймановской архитектуры интеллект (порождение новых знаний) неосуществим. Сколько бы яблок не упало на фон-неймановский компьютер, он никогда не вычислит закон гравитации.

S>А я это мнение не разделяю. Вот на "не-фон-неймановский" компьютер ограничения наложены заранее, и поскольку программа его не может сама себя изменить, то яблоками бросать смысла не имеет.

S>Фон-неймановская архитектура всего лишь обеспечивает нам возможность писать само- и взаимо-модифицирующие программы.


Речь не о том, модифицируется ли программа. Речь у Пенроуза о противопоставлении классических и квантовых вычислений. Первое тут было названо фоннеймановским, возможно не совсем удачно.
Re[7]: Несколько дурацких вопросов по теории информации
От: D. Mon Великобритания http://thedeemon.livejournal.com
Дата: 23.01.09 05:25
Оценка:
Здравствуйте, Voblin, Вы писали:

DM>>Их можно считать частными разделами физики и математики.


V>Этак мы дойдём до того, что и литературоведение тоже объявим частным разделом физики и математики


"Науки бывают естественные и противоестественные".
Биологию и социологию можно выразить языком формул математики и физики (впрочем, язык физики — та же математика, разница лишь в досадном наличии реальности, с которой требуется соотноситься для проверки истинности ). А насчет математической формализуемости литературоведения у меня есть большие сомнения.
Re[7]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 23.01.09 06:53
Оценка:
Здравствуйте, deniok, Вы писали:

D>Здравствуйте, craft-brother, Вы писали:



D>Я понимаю смысл чего-либо как семантическую функцию из осмысляемого домена в другой (целевой) домен. Скажем слово "дерево" понятно нам (имеет смысл), поскольку мы отображаем это слово в объект реального мира. А слово "кщхри" не имеет смысла, поскольку не входит в область определения какой-либо семантической функции. Ясно, что таких функций может существовать много (то есть из текста мы способны извлекать целый спектр смыслов), но неясно почему мы запрещаем использование это слово для описания действий компьютера. Чем идея семантических функций плоха для формализации понятия смысла?


Я не знаю что такое семантическая функция. Область определения? Область изменения? Определение функции в студию, пожалуйста!


D>В современном computer science, кстати, описывать формальную семантику программ — довольно распространенное явление.


Довольно распространенное явление? Не уверен. Не мог бы ты дать ссылку на формальную спецификацию программы, хотя бы в несколько KSLOC.

D>Если мы признаем, например, что смысл программы сортировки — в получении отсортированного контейнера, то мы можем формально наложить это требование и формально же доказать, что для данной программы оно выполняется. Или (полу)автоматически породить подобную программу на основе наложенных формальных требований. Welcome to COQ и Agda


За ссылки спасибо, но где ПО, формально специфицированное на этих языках? Еще раз, ссылку, пожалуйста!

Знаю только одно успешное промышленное решения, но в очень-очень узенькой области формальных спецификаций — язык спецификации телекоммуникационных протоколов SDL.
Re[8]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 23.01.09 06:59
Оценка:
Здравствуйте, craft-brother, Вы писали:

CB>Здравствуйте, deniok, Вы писали:


D>>В современном computer science, кстати, описывать формальную семантику программ — довольно распространенное явление.


CB>Довольно распространенное явление? Не уверен. Не мог бы ты дать ссылку на формальную спецификацию программы, хотя бы в несколько KSLOC.


Ну самый явный пример — здесь.
Re[3]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 23.01.09 07:08
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, craft-brother, Вы писали:



V>Мне трудно согласиться с тем, что для определения понятия "информация" задействуется понятие "жизнь".

V>Проблема не в том, правильно это или не правильно. Мне не нравится сам подход к проблеме, когда вместо исследования непонятного явления мы связываем его с ещё более загадочным явлением, на чём рассуждения благополучно и заканчиваются или уходят в такую мутную неконкретику, что полезного выхода ждать уже не приходится. Это интеллектуальная капитуляция.

Исторически сложились две слабосвязанные ветви человеческого знания: технические (ну, это понятно) и гуманитарные (о жизни). Сегодня они пересеклись на понятии информация. Признание того, что не все можно описать уравнениями Новье-Стокса, Максвела, Шредингера и проч., конечно, досадно, но убежден, что без привлечения философии и психологии мы в понимании информации не продвинемся. И вовсе это не капитуляция. Вот.

CB>>Еще немного ИМХО о информации здесь
Автор: craft-brother
Дата: 18.08.06
.


V>Спасибо за ссылку. И особенно спасибо за те ссылки, которые там есть.


Да, пожалуйста . «Вы хочите ссылок? Их есть у меня!». Пиши в личку. Вопрос, что такое информация и с чем ее едят в программостроении крутиться в бекграунд процессе уже более 10 лет.
Re[4]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 23.01.09 07:31
Оценка:
Здравствуйте, goto, Вы писали:


G>Да, проблема общая, но в ИТ проявляется, как мне кажется, относительно явно и формально. Ит — область большая, разнообразная, пластичная, в то же время детерминированная, так что в ней возможны интересные эксперименты со знанием и информацией.


G>Интересено, есть ли исследования или рассуждения о, так сказать, фундаментальном устройстве, структурных особенностях самой информации (не данных, не алгоритмов. Мне трудно четко сформулировать)? Может, философские работы или даже какие-то полубезумные околофизические, околокосмологические? Раз уж такая тема попалась... Только не "Матрица"


Последнее научное достижение в этой области, докторскую диссертацию В. Выхованеца «Синтез эффективных математических моделей дискретной обработки данных на основе алгебраической и понятийной декомпозиции предметной области» обсуждают здесь
Автор:
Дата: 30.12.08
.

ИМХО. Задача сформулирована более-менее адекватно, даже некоторые источники правильные. Решения как не было так и нет
Re[9]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 23.01.09 08:01
Оценка:
Здравствуйте, Курилка, Вы писали:

К>Здравствуйте, craft-brother, Вы писали:


CB>>Здравствуйте, deniok, Вы писали:


D>>>В современном computer science, кстати, описывать формальную семантику программ — довольно распространенное явление.


CB>>Довольно распространенное явление? Не уверен. Не мог бы ты дать ссылку на формальную спецификацию программы, хотя бы в несколько KSLOC.


К>Ну самый явный пример — здесь.



Кирилл, а чем поможет формальная спецификация преобразования данных, на которую ты дал ссылку, при спецификации программ документооборота, склада или расчета траектории полета на Марс?
Про формальную спецификацию компиляторов я читал еще в прошлом веке (Маккиман, "Генератор компиляторов" 1980)
Re[10]: Несколько дурацких вопросов по теории информации
От: Курилка Россия http://kirya.narod.ru/
Дата: 23.01.09 08:21
Оценка:
Здравствуйте, craft-brother, Вы писали:

CB>Здравствуйте, Курилка, Вы писали:


К>>Здравствуйте, craft-brother, Вы писали:


CB>>>Здравствуйте, deniok, Вы писали:


D>>>>В современном computer science, кстати, описывать формальную семантику программ — довольно распространенное явление.


CB>>>Довольно распространенное явление? Не уверен. Не мог бы ты дать ссылку на формальную спецификацию программы, хотя бы в несколько KSLOC.


К>>Ну самый явный пример — здесь.



CB>Кирилл, а чем поможет формальная спецификация преобразования данных, на которую ты дал ссылку, при спецификации программ документооборота, склада или расчета траектории полета на Марс?

CB>Про формальную спецификацию компиляторов я читал еще в прошлом веке (Маккиман, "Генератор компиляторов" 1980)

Т.е. компилятор это не "программа хотя б в несколько KSLOC"?
Ну и цитата с приведённого сайта:

By ruling out the possibility of compiler-introduced bugs, verified compilers strengthen the guarantees that can be obtained by applying formal methods to source programs


Другое дело, что для программы складского учёта врядли будут использовать формальные доказательства, т.к. посчитают экономически не целесообразным (скорее всего). В отличии от военных и космических проектов (по-меньшей мере я так думаю).
Re[19]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.01.09 09:35
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Употребляешь ты наркотики или нет -- тоже вопрос веры и определений


С чашкой кофе в руке трудно с этим спорить

SH>Я правильно понял твою версию: мозг конечно детерминирован, но всё вокруг такое чудесное и неожиданное, что в комплексе получается тоже чудесно и неожиданно?


Ага

Почти так. Мозг, конечно недетерминирован потому, что подвержен случайным воздействиям (радиация, инфекции, те же квантовые неопределённости). Но я уверен, что это не те воздействия, из которых извлекается информация. Это, скорее, факторы, с которыми приходится бороться.

Думаю, что проблема возникновения сознания на "аппаратной части" мозга не решена до сих пор именно потому, что она является чрезвычайно "многослойной": существует множество контекстов разного уровня, от которых нельзя абстрагироваться без ущерба для конечного результата.
Re[4]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.01.09 11:08
Оценка:
Здравствуйте, craft-brother, Вы писали:

CB>Исторически сложились две слабосвязанные ветви человеческого знания: технические (ну, это понятно) и гуманитарные (о жизни). Сегодня они пересеклись на понятии информация. Признание того, что не все можно описать уравнениями Новье-Стокса, Максвела, Шредингера и проч., конечно, досадно, но убежден, что без привлечения философии и психологии мы в понимании информации не продвинемся. И вовсе это не капитуляция. Вот.


Технические и гуманитарные науки наиболее плотно и восхитительно сливаются в экстазе в нашем любимом инфотехе. Именно мы перекладываем на "математику" (устаревший термин для того, что сейчас мы называем программным обеспечением) человеческие потребности, привычки, особенности восприятия, представления о прекрасном. И не удивительно, что потребность в более чётком понимании того, что такое есть "информация", наиболее остро зачесалась именно у нас.

CB>Да, пожалуйста . «Вы хочите ссылок? Их есть у меня!». Пиши в личку. Вопрос, что такое информация и с чем ее едят в программостроении крутиться в бекграунд процессе уже более 10 лет.


Как-нибудь чуть позже. Сейчас затарился чтивом на год вперёд.
Re[20]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 23.01.09 12:19
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Почти так. Мозг, конечно недетерминирован потому, что подвержен случайным воздействиям (радиация, инфекции, те же квантовые неопределённости). Но я уверен, что это не те воздействия, из которых извлекается информация. Это, скорее, факторы, с которыми приходится бороться.


Выделил жирным ключевое место.

Это тоже вопрос веры. Ты считаешь, что это незначимые сигналы, я -- что как раз они-то и значимые, вот и вся разница. Боюсь, что ни одна из версий не опровержима, т.к., скажем, заблокировать квантовые эффекты мы не можем.
Делай что должно, и будь что будет
Re[8]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.01.09 13:12
Оценка:
Здравствуйте, goto, Вы писали:

G>По-моему, здесь (и где-то еще в этой ветке) напрашивается такое понятие, как воля. Поскольку слово это заезженное, то допустим, что это черный ящик, который позволяет выполнять преобразования более высокого уровня, чем алгоритм или рефлекс. Уровня недерминированного в механистическом смысле.


Ещё как напрашивается! Надо только попытаться понять как его более точно определить и применить.

Поведение живых существ существенно отличается от поведения неживых объектов тем, что поведение живых существ мотивировано. Этот мотив и является тем самым существенным элементом, который заставляет нежный живой росток пробиваться через толщу мёртвого асфальта.

Откуда берётся этот самый мотив?
Религиозный человек скажет, что в живые существа подчиняются слову Божьему "Плодитесь и размножайтесь". Атеист скажет, что это результат эволюции (в самом деле, ведь все предки этого самого ростка выжили и дали потомство только потому, что упорно росли не вниз и не в бок, а именно вверх). Какая из этих двух формулировок является правильной, для наших размышлений о природе информации совершенно не важно. Они эквивалентны так как из обоих этих формулировок следует, что все живые существа непременно имеют механизмы, заставляющие их действовать не так, как "энергетически выгодно" действовать здесь и сейчас, а так, как диктуют некие причины "высшего порядка". Заяц, бегущий от волка в гору, преодолевая силу гравитации с помощью сложнейшего и тончайшего комплекса физических процессов именно потому, что причина "высшего порядка" в данном случае оказывается сильнее силы гравитации.

Может ли поведение неживых объектов тоже быть мотивированным? Запросто! В частности, наделить мотивацией неживой предмет может создатель этого предмета (уже не "Создатель", а именно "создатель"). Конструктор туалетного бачка зарабатывает себе на хлеб насущный (это его, конструктора, мотивация) тем, что стоя у кульмана, повелевает бачку наполняться, когда пуст, и опустошаться, когда укажут, и так во веки веков. Артефакты, создаваемые человеком, всегда создаются им с какой-то целью, и поэтому тоже получают "божью искру".

Кстати, не только люди целенаправленно создают предметы. Животные тоже, например, роют норки, вьют гнёзда. Бобры даже вон плотины строят. Выходит, и эти объекты тоже косвенно получают свою долю "искры божьей". Брёвна в бобровой плотине противостоят напору воды, потому что так специально сделано бобром.

Как же это всё вышеизложенное соотносится с понятием информации? Довольно просто. Мы уже понимаем, что такое мотивированное поведение и понимаем, что оно есть во всём, созданном как человеком, так и природой. Мы понимаем, что мотивированное поведение непременно нарушает закон возрастания энтропии. А от уменьшения энтропии уже один шаг к классическому определению информации.
Ура, товарищи
Re[21]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.01.09 13:22
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Это тоже вопрос веры. Ты считаешь, что это незначимые сигналы, я -- что как раз они-то и значимые, вот и вся разница. Боюсь, что ни одна из версий не опровержима, т.к., скажем, заблокировать квантовые эффекты мы не можем.


Собственно поэтому гипотеза об извлечении информации из квантов не проходит по критерию Поппера и, следовательно, она ненаучна.
Re[22]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 23.01.09 13:24
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Собственно поэтому гипотеза об извлечении информации из квантов не проходит по критерию Поппера и, следовательно, она ненаучна.


Так же как и гипотеза о том, что "это не те воздействия, из которых извлекается информация. Это, скорее, факторы, с которыми приходится бороться."
Делай что должно, и будь что будет
Re[23]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.01.09 13:34
Оценка:
Здравствуйте, SergH, Вы писали:

V>>Собственно поэтому гипотеза об извлечении информации из квантов не проходит по критерию Поппера и, следовательно, она ненаучна.

SH>Так же как и гипотеза о том, что "это не те воздействия, из которых извлекается информация. Это, скорее, факторы, с которыми приходится бороться."

А вот и нет. Мою гипотезу в принципе можно опровергнуть экспериментально. Для этого достаточно лишь изготовить "квантового оракула", который будет выдавать сведения, не следующие из доступной ему информации.
Re[24]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 23.01.09 13:39
Оценка:
Здравствуйте, Voblin, Вы писали:

V>А вот и нет. Мою гипотезу в принципе можно опровергнуть экспериментально. Для этого достаточно лишь изготовить "квантового оракула", который будет выдавать сведения, не следующие из доступной ему информации.


Определи понятие "сведения"
Раз уж ты собрался ставить эксперимент.

Да, и я не Поппер, меня не волнует "в принципе". Меня интересует "практически".
Делай что должно, и будь что будет
Re[25]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.01.09 14:02
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Определи понятие "сведения"

SH>Раз уж ты собрался ставить эксперимент.

Хотел написать "информация", но рука дрогнула. Чтобы не возникло соблазна выдать за результат последовательность случайных чисел.

Кстати, о сути эксперимента, который меня бы убедил: телевизор, показывающий завтрашнюю программу новостей — подойдёт
Re[26]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 23.01.09 14:11
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Хотел написать "информация", но рука дрогнула. Чтобы не возникло соблазна выдать за результат последовательность случайных чисел.


Т.е. так и не определил?

V>Кстати, о сути эксперимента, который меня бы убедил: телевизор, показывающий завтрашнюю программу новостей — подойдёт


Во-первых, это можно проще сделать.
Во-вторых, этот эффект может быть принципиально недостижим -- в любой парадигме. Я ничего не говорил про пророчество, да ещё и с такой точностью. Пенроуз, скорее всего, тоже.

А граф Лев Толстой, сгенерировавший "Войну и Мир" точно не подходит, да? По каким критериям ты определил, что содержащиеся в романе "сведения" (как бы ты ни определил это понятие) не "новые"?
Делай что должно, и будь что будет
Re[27]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.01.09 14:36
Оценка:
Здравствуйте, SergH, Вы писали:

V>>Хотел написать "информация", но рука дрогнула. Чтобы не возникло соблазна выдать за результат последовательность случайных чисел.

SH>Т.е. так и не определил?

Вчерне (для этого эксперимента) можно определить так: сигнал, уменьшающий неопределённость сведений об исследуемом объекте.

SH>Во-вторых, этот эффект может быть принципиально недостижим -- в любой парадигме.


ОК. Фиг с ним, с "завтрашним" телевизором. Это действительно крутовато. Какая-нибудь нерешаемая задача тоже подойдёт. Мало их что ли, доказанно нерешаемых задач?

SH>А граф Лев Толстой, сгенерировавший "Войну и Мир" точно не подходит, да? По каким критериям ты определил, что содержащиеся в романе "сведения" (как бы ты ни определил это понятие) не "новые"?


Точно не подходит. Льва Николаевича никто ещё не воспроизвёл в независимом эксперименте.
Re[28]: Несколько дурацких вопросов по теории информации
От: SergH Россия  
Дата: 23.01.09 15:17
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Вчерне (для этого эксперимента) можно определить так: сигнал, уменьшающий неопределённость сведений об исследуемом объекте.


Определил понятия "сведения" через них же самих? И не поспоришь
Ещё я бы спросил что такое "неопределённость сведений". И когда она уменьшается. Например, я тебе говорю: курс доллара на завтра 32,8926. Насколько уменьшилась твоя неопределённость?

V> Какая-нибудь нерешаемая задача тоже подойдёт. Мало их что ли, доказанно нерешаемых задач?


Например?

SH>>А граф Лев Толстой, сгенерировавший "Войну и Мир" точно не подходит, да? По каким критериям ты определил, что содержащиеся в романе "сведения" (как бы ты ни определил это понятие) не "новые"?


V>Точно не подходит. Льва Николаевича никто ещё не воспроизвёл в независимом эксперименте.


А критерий? Без критерия эксперимент не поставить.

А тут вообще плохо с экспериментами. Эксперимент он же одно и тоже должен показывать, чтобы воспроизводиться? Ну вот, второй раз это будут уже не очень новые сведения, они не уменьшат твою неопределённость (что бы ни значило это словосочетание).

Чудеса на поток не ставятся Они вызывают разовые отклонения вероятностей от статистических... вычисленных не экспериментально, а по теоретической модели, без учёта чудес
Делай что должно, и будь что будет
Re[29]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 23.01.09 16:46
Оценка:
Здравствуйте, SergH, Вы писали:

SH>Определил понятия "сведения" через них же самих? И не поспоришь


В принципе, в качестве определения того, что хотелось бы почерпнуть из "квантового оракула", годится любое определение информации, исключающее из рассмотрения последовательность случайных чисел. Например:
  • Винеровское: «Информация — это обозначение содержания, черпаемого нами из внешнего мира в процессе нашего приспособления к нему и приведения в соответствии с ним нашего мышления»
  • Шенноновское: «Информация — это то, что устраняет неопределенность выбора»

    V>> Какая-нибудь нерешаемая задача тоже подойдёт. Мало их что ли, доказанно нерешаемых задач?

    SH>Например?

    Ну, не знаю... Может, проблема остановки машины Тьюринга или десятая проблема Гильберта. Что там ещё у нас не имеет алгоритмического решения?

    SH>А критерий? Без критерия эксперимент не поставить.


    Физики-экспериментаторы лучше меня расскажут о том, как оценивать статистическую достоверность результатов эксперимента. И как важна воспроизводимость результатов.

    SH>А тут вообще плохо с экспериментами. Эксперимент он же одно и тоже должен показывать, чтобы воспроизводиться? Ну вот, второй раз это будут уже не очень новые сведения, они не уменьшат твою неопределённость (что бы ни значило это словосочетание).


    Во второй раз они уменьшат неопределённость относительно чего-нибудь другого (например, завтра "завтрашний телевизор" покажет послезавтрашние новости). В чём проблема?

    SH>Чудеса на поток не ставятся Они вызывают разовые отклонения вероятностей от статистических... вычисленных не экспериментально, а по теоретической модели, без учёта чудес


    Не надо никаких чудес! Нужно просто получение новой информации!

    Если, согласно гипотезе, по миру ходят миллиарды субъектов, постоянно извлекающие "из квантов" бурные потоки новой информации, то почему принципиально нельзя создать установку, вытаскивающую из этих самых квантов хотя бы один жалкий бит в час?
  • Re[30]: Несколько дурацких вопросов по теории информации
    От: nikov США http://www.linkedin.com/in/nikov
    Дата: 23.01.09 17:18
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Ну, не знаю... Может, проблема остановки машины Тьюринга или десятая проблема Гильберта. Что там ещё у нас не имеет алгоритмического решения?


    По поводу десятой проблем Гильберта. Нету алгоритма, который мог бы дать ответ о наличии решений для всех диофантовых уравнений. Но для любого конечного множества уравнений (и для некоторых бесконечных) существует алгоритм, который дает ответ о наличии решений для всех уравнений из этого множества.
    Как будем оракула тестировать? Прогонять через все диофантовы уравнения?
    То же самое с остановкой машины Тьюринга.
    Re[30]: Несколько дурацких вопросов по теории информации
    От: nikov США http://www.linkedin.com/in/nikov
    Дата: 23.01.09 17:21
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Если, согласно гипотезе, по миру ходят миллиарды субъектов, постоянно извлекающие "из квантов" бурные потоки новой информации, то почему принципиально нельзя создать установку, вытаскивающую из этих самых квантов хотя бы один жалкий бит в час?


    Погоди-ка. Вот ты смотришь на что-то, как ты различаешь, это субъект или установка? И какое значение это различие несет для эксперимента?
    Re[4]: Несколько дурацких вопросов по теории информации
    От: goto Россия  
    Дата: 23.01.09 20:47
    Оценка:
    Интересно, что объективизация "квантует" информацию, дискретизирует. При этом она отрезает часть гармоник или уничтожает уровни иерархии — по-разному можно рассуждать. Проблемы очевидные, но мне кажется, что именно такой взгляд ближе к природе информации.

    Человек, как машина по переработке информации, тоже постоянно занимается ее дискретизацией. Немного не в тему, но рискну добавить: для большинства случаев, чем менее развит человек, тем более жестко он фильтрует (уничтожает для себя) поступающую информацию.
    Re[5]: Несколько дурацких вопросов по теории информации
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 23.01.09 20:52
    Оценка:
    Здравствуйте, goto, Вы писали:

    G>Интересно, что объективизация "квантует" информацию, дискретизирует. При этом она отрезает часть гармоник или уничтожает уровни иерархии — по-разному можно рассуждать. Проблемы очевидные, но мне кажется, что именно такой взгляд ближе к природе информации.


    G>Человек, как машина по переработке информации, тоже постоянно занимается ее дискретизацией. Немного не в тему, но рискну добавить: для большинства случаев, чем менее развит человек, тем более жестко он фильтрует (уничтожает для себя) поступающую информацию.


    По-моему не обязательно, просто для решения какой-то задачи необходим один уровень детализации, для другой задачи — другой уровень.
    И порой наоборот важно увидеть именно "крупноблочную" картину, чтобы не отвлекали лишние мелкие детали.
    Re[5]: Несколько дурацких вопросов по теории информации
    От: goto Россия  
    Дата: 23.01.09 20:53
    Оценка:
    Спасибо, отнесу в норку и попробую переварить.
    Re[8]: Несколько дурацких вопросов по теории информации
    От: Sinclair Россия https://github.com/evilguest/
    Дата: 24.01.09 13:32
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>А в "прошивалку" кто заложил алгоритм? Другая прошивалка?

    А то! Вижу, ты начинаешь понимать.

    CB>В мышлении помимо логических расчетов есть еще интуиция (не спрашивай меня что это такое, не знаю, но она есть),

    Вот этот момент мне непонятен. Как можно говорить о том, что что-то есть, не зная, что это такое?
    Я против интуиции ничего не имею — для меня это всего лишь невербализованное представление накопленного опыта.
    CB>поэтому машина мыслить не будет , никогда. Да, кстати, Чёрч говорил именно про интуитивную вычислимость. Может быть он знал, что такое интуиция, только никому не сказал?
    Вот именно! Я говорю именно об этом: никаких свидетельств в пользу того, что "интуитивная" вычислимость мощнее "логической" вычислимости, я не наблюдаю. А ты хочешь опровергнуть тезис Чёрча, уверяя, что интуитивная вычислимость лучше.

    CB>Ну, вроде бы, я совета не просил . Может нам не стоит мнить себя венцом творения?

    Это уж как захотите. Я и сейчас себя венцом творения не мню.
    CB>Тараканы с крысами, как вид, живут намного дольше. И еще нас переживут.
    Речь не о долготе жизни, а о том, что мы уже близки к построению алгоритмического аналога таракана.
    CB>Про собак не знаю. А кошки (общаюсь 15 лет) мало того, что сами мыслят, да еще, гады, и мои мысли умеют считывать. Уверен.
    Ну и где граница между мышлением и машиной? Я задал простой вопрос — ты начал юлить. Нехорошо.
    Уйдемте отсюда, Румата! У вас слишком богатые погреба.
    Re: Несколько дурацких вопросов по теории информации
    От: jazzer Россия Skype: enerjazzer
    Дата: 24.01.09 18:45
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>С удивлением обнаружил, что не смотря на то, что вспахиваю ниву информационных технологий, о самом понятии "информация" имею довольно мутные представления. Самое печальное, что попытки найти внятную литературу по этой теме пока успехом не увенчались.


    V>Ситуация выглядит весьма забавно. Мы научились искать, воспринимать, перерабатывать, копировать, накапливать, использовать информацию. Довольно часто у нас получается уничтожать информацию. Худо-бедно научились измерять её количество (либо тупо через потребную ёмкость канала, в битах, либо более точно, через колмогоровскую сложность). Не понятно, можем ли мы создавать информацию, но об этом позже. А вот о том, что это собственно такое — информация и каковы её свойства — полные непонятки.



    «Информация», научным образом определенная, пропорциональна удивлению: чем удивительнее сообщение, тем больше информации оно содержит. Если, подняв телефонную трубку, человек услышит «алло», это его не очень удивит; значительно больше будет информация, если его вместо «алло» внезапно ударит током.

    http://n-t.ru/ri/fz/fz505.htm
    jazzer (Skype: enerjazzer) Ночная тема для RSDN
    Автор: jazzer
    Дата: 26.11.09

    You will always get what you always got
      If you always do  what you always did
    Re[9]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 25.01.09 09:14
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    S>Здравствуйте, craft-brother, Вы писали:


    CB>>А в "прошивалку" кто заложил алгоритм? Другая прошивалка?

    S>А то! Вижу, ты начинаешь понимать.

    CB>>В мышлении помимо логических расчетов есть еще интуиция (не спрашивай меня что это такое, не знаю, но она есть),

    S>Вот этот момент мне непонятен. Как можно говорить о том, что что-то есть, не зная, что это такое?
    S>Я против интуиции ничего не имею — для меня это всего лишь невербализованное представление накопленного опыта.
    CB>>поэтому машина мыслить не будет , никогда. Да, кстати, Чёрч говорил именно про интуитивную вычислимость. Может быть он знал, что такое интуиция, только никому не сказал?
    S>Вот именно! Я говорю именно об этом: никаких свидетельств в пользу того, что "интуитивная" вычислимость мощнее "логической" вычислимости, я не наблюдаю. А ты хочешь опровергнуть тезис Чёрча, уверяя, что интуитивная вычислимость лучше.

    С чего ты взял, что тезис Черча утверждает о том, что любое знание, которое может родиться в моей голове, может быть эффективно вычислено при помощи машины Тьюринга? Вот, например, я четко знаю, покажу я язык в ближайшие пять минут или нет. Убежден, что эта булева функция не может быть вычислена ни одним алгоритмом. А есть еще более сложные мыслительные феномены, например гештальт или инсайт, которые никогда не будут воспроизведены на машине Тьюринга.

    CB>>Ну, вроде бы, я совета не просил . Может нам не стоит мнить себя венцом творения?

    S>Это уж как захотите. Я и сейчас себя венцом творения не мню.
    CB>>Тараканы с крысами, как вид, живут намного дольше. И еще нас переживут.
    S>Речь не о долготе жизни, а о том, что мы уже близки к построению алгоритмического аналога таракана.

    Оч интересно! Просьба, поподробнее. Мы это кто? Каков критерий аналогичности алгоритма и таракана?

    CB>>Про собак не знаю. А кошки (общаюсь 15 лет) мало того, что сами мыслят, да еще, гады, и мои мысли умеют считывать. Уверен.

    S>Ну и где граница между мышлением и машиной? Я задал простой вопрос — ты начал юлить. Нехорошо.

    На какой вопрос я тебе не ответил?

    ИМХО, давать оценки и советы, когда тебя не просят, дело вредное и не способствует выяснению истины. Предлагаю общаться на уровне утверждений и аргументов.

    Мое утверждение состоит в том, что не вся информация, которая родится в моей голове, может быть выражена языком логики и вычислений. Следовательно, граница между мышлением и машиной есть.

    Ты против этого возражаешь?
    Re[18]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 25.01.09 12:30
    Оценка:
    Здравствуйте, deniok, Вы писали:

    D>Если отделить "смысл для потребителя", который зависит от способа интерпретации (и может быть описан в рамках какой-то формальной или неформальной семантики), от фактического, объективного содержания информации в сообщении (или ещё где-то), то многие вопросы снимутся.


    Я это уже писал в этом топике. Не помогло.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[19]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 25.01.09 12:30
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>А существует ли оно вообще, это самое "объективное содержание информации"?


    Существует. Второй закон термодинамики еще не забыл? Или считаешь, что он не объективен?
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[17]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 25.01.09 12:30
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>2. Компутеры бывают не только цифровыми (где понятие "бит" обретает вполне конкретный смысл, вычисляемый через логарифм), но и аналоговыми. Чем мерить обрабатываемую ими информацию, если при попытке найти логарифм мы всеми частями тела бьёмся о многочисленные выпирающие со всех сторон бесконечности?


    Есть масса способов перейти от аналогового к цифровому миру. См., к примеру, преобразование Фурье и преобразование Адамара.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[19]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 25.01.09 12:30
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Проблема в том, что пока вычисление не добралось до аналогово-цифрового преобразования (в любой форме, через электронный ЦАП или через целевую функцию типа "попадание ракеты в самолёт / промах"), информацию, циркулирующую в аналоговом компутере мерить нечем, и никакое геометрическое определение вероятности применить нельзя.


    Реальное преобразование для получения эквивалентности необязательно. Тут надо понимать один момент — абсолютно точные вычисления на основе непрерывных данных за конечное время невозможны. Точность вычислений в цифровых компах ограничена разрядностью, в аналоговых паразитными емкостями и индуктивностями в цепи ООС. Вот на основе точности и скорости вычислений и можно сравнивать цифровые и аналоговые вычисления.

    V> А ведь существуют системы автоматического управления, которые ни на входе, ни внутри себя, ни на выходе не имеют никаких дискретизаторов.


    Есть математика, позволяющая переписать любую аналоговую функцию например в виде цифровой матрицы.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 25.01.09 12:39
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    Да, есть старая книжка, называется "Одна формула и весь мир". К сожалению, в инете я ее не нашел. Если попадется, почитай. Думаю, тебе будет интересно.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[10]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 25.01.09 14:05
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>На какой вопрос я тебе не ответил?


    Например на вопрос о том, является ли вирус жизнью, или это просто химия.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[11]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 25.01.09 14:33
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Здравствуйте, craft-brother, Вы писали:


    CB>>На какой вопрос я тебе не ответил?


    AVK>Например на вопрос о том, является ли вирус жизнью, или это просто химия.


    А что вопрос был не риторический? Мы здесь, в общем-то, про программы. Про вирусы мало чего знаю...
    Re[12]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 25.01.09 14:35
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    AVK>>Например на вопрос о том, является ли вирус жизнью, или это просто химия.


    CB>А что вопрос был не риторический?


    Нифига ж себе риторический вопрос, если ответ на него вызывает массу споров в научных кругах.

    CB> Мы здесь, в общем-то, про программы.


    Не надо увиливать, про неразрывную связь информации и жизни именно ты начал.
    AVK Blog
    Re[10]: Несколько дурацких вопросов по теории информации
    От: Sinclair Россия https://github.com/evilguest/
    Дата: 25.01.09 15:28
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>С чего ты взял, что тезис Черча утверждает о том, что любое знание, которое может родиться в моей голове, может быть эффективно вычислено при помощи машины Тьюринга?

    Ну вот, начинается. Какое еще "знание"? Пока что мы обсуждали только информацию и данные. А теперь вдруг еще и какое-то знание появилось. Можно определение этого термина в студию?
    А по поводу тезиса — он сопоставляет интуитивное понятие вычислимости (к которому сводится вся мыслительная мощность человека) и формальную теорию Тьюринга. Это и есть то, о чем я говорю.

    CB>Вот, например, я четко знаю, покажу я язык в ближайшие пять минут или нет. Убежден, что эта булева функция не может быть вычислена ни одним алгоритмом.

    На чём базируется данное утверждение? Если отбросить неожиданное употребление термина "функция", то оно совершенно эквивалентно утверждению, к примеру "никто не в состоянии предсказать следующее значение, выдаваемое криптографически стойким генератором псевдослучайных чисел, не зная его внутреннего состояния". Ну и что? Тем не менее, совершенно банальный алгоритм выдаёт следующее совершенно непредсказуемое число совершенно детерминированным способом. Почему ты думаешь, что твоя интрига с высовыванием языка требует для моделирования чего-то более сложного, чем ГСЧ?

    CB>А есть еще более сложные мыслительные феномены, например гештальт или инсайт, которые никогда не будут воспроизведены на машине Тьюринга.

    А можно тем, кто никогде не испытывал гештальтов и инсайтов, вкратце обосновать, в каком именно месте эти феномены обходят понятие интуитивной вычислимости?

    S>>Это уж как захотите. Я и сейчас себя венцом творения не мню.

    CB>>>Тараканы с крысами, как вид, живут намного дольше. И еще нас переживут.
    S>>Речь не о долготе жизни, а о том, что мы уже близки к построению алгоритмического аналога таракана.

    CB>Оч интересно! Просьба, поподробнее. Мы это кто? Каков критерий аналогичности алгоритма и таракана?

    Программисты.
    Критерий — простой: экспериментальное сравнение.

    CB>>>Про собак не знаю. А кошки (общаюсь 15 лет) мало того, что сами мыслят, да еще, гады, и мои мысли умеют считывать. Уверен.

    S>>Ну и где граница между мышлением и машиной? Я задал простой вопрос — ты начал юлить. Нехорошо.

    CB>На какой вопрос я тебе не ответил?

    На вопрос: где граница между мышлением и машиной. Я его задаю уже в третий раз.
    Уйдемте отсюда, Румата! У вас слишком богатые погреба.
    Re[11]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 25.01.09 15:33
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    S>На вопрос: где граница между мышлением и машиной. Я его задаю уже в третий раз.


    Один нюанс. Ты просишь ответ на формальном языке, т.е. с точки зрения машины. Я не уверен, что такой ответ существует, даже если разница есть
    Делай что должно, и будь что будет
    Re[31]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 26.01.09 07:28
    Оценка:
    Здравствуйте, nikov, Вы писали:

    N>По поводу десятой проблем Гильберта. Нету алгоритма, который мог бы дать ответ о наличии решений для всех диофантовых уравнений. Но для любого конечного множества уравнений (и для некоторых бесконечных) существует алгоритм, который дает ответ о наличии решений для всех уравнений из этого множества.

    N>Как будем оракула тестировать? Прогонять через все диофантовы уравнения?
    N>То же самое с остановкой машины Тьюринга.
    Согласен.

    Мне действительно очень трудно придумать эксперимент, который подтвердил существование явления, физическое проявление которого мне не известно.
    Т.е. утверждается, что существует некое явление — извлечение новой информации из квантовых эффектов в процессе мышления. Я же утверждаю, что процесс мышления в своей основе (т.е. на микроуровне) алгоритмичен, и образование новой информации в мозгу не только невозможно, но и не нужно.
    Впрочем, со своим мнением я готов расстаться, если это самое явление будет продемонстрировано в эксперименте.

    Каким должен быть эксперимент, я действительно не знаю. Потому что я не представляю себе что это такое — "новая информация", как она должна проявлять себя в реальном мире, и зачем она собственно нужна.

    Точно так же если кто-то мне скажет, что все наши мысли нашёптываются нам ангелами и демонами, я попрошу для доказательства предъявить мне ангела или демона. Или хотя бы продемонстрировать воспроизводимый эксперимент, доказывающий их существование. И можно я сам не буду придумывать этот эксперимент? Я ведь даже не понимаю, что мы в нём должны найти!
    Re[32]: Несколько дурацких вопросов по теории информации
    От: thesz Россия http://thesz.livejournal.com
    Дата: 26.01.09 08:44
    Оценка:
    V>Я же утверждаю, что процесс мышления в своей основе (т.е. на микроуровне) алгоритмичен, и образование новой информации в мозгу не только невозможно, но и не нужно.

    Только алгоритмы квантовые. Поэтому что вышло — то и вышло.

    Да, и: новая информация берётся из энергии. Энергия в мозг поступает из крови. То есть, создание новой информации в мозгу возможно, а в человеке в целом — нет.

    Человек, наоборот, информацию рассеивает со страшной силой.
    Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
    Re[33]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 26.01.09 08:57
    Оценка:
    Здравствуйте, thesz, Вы писали:

    T>Только алгоритмы квантовые. Поэтому что вышло — то и вышло.


    Какая разница, на чём физически реализован алгоритм?

    T>Да, и: новая информация берётся из энергии. Энергия в мозг поступает из крови. То есть, создание новой информации в мозгу возможно, а в человеке в целом — нет.


    Информация из энергии не берётся, если только эта энергия не несёт в себе сигнал. Компьютер, например, при выполнении алгоритма берёт информацию из исходных данных, а не из потребляемого электричества.
    Re[11]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 26.01.09 09:01
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    S>Здравствуйте, craft-brother, Вы писали:


    CB>>С чего ты взял, что тезис Черча утверждает о том, что любое знание, которое может родиться в моей голове, может быть эффективно вычислено при помощи машины Тьюринга?

    S>Ну вот, начинается. Какое еще "знание"? Пока что мы обсуждали только информацию и данные. А теперь вдруг еще и какое-то знание появилось. Можно определение этого термина в студию?

    Ну, извини. Был не строг. Знание для меня синоним информации. Я их не различаю.

    S>А по поводу тезиса — он сопоставляет интуитивное понятие вычислимости (к которому сводится вся мыслительная мощность человека) и формальную теорию Тьюринга. Это и есть то, о чем я говорю.


    Вот тут, ИМХО, и кроется различие наших взглядов. Ты утверждаешь, что Черч говорил о "всей мыслительной мощности человека" я же считаю, что он говорил только о вычислительной мощности человека. То, что относится к левополушарному мышлению.


    CB>>Вот, например, я четко знаю, покажу я язык в ближайшие пять минут или нет. Убежден, что эта булева функция не может быть вычислена ни одним алгоритмом.

    S>На чём базируется данное утверждение? Если отбросить неожиданное употребление термина "функция", то оно совершенно эквивалентно утверждению, к примеру "никто не в состоянии предсказать следующее значение, выдаваемое криптографически стойким генератором псевдослучайных чисел, не зная его внутреннего состояния". Ну и что? Тем не менее, совершенно банальный алгоритм выдаёт следующее совершенно непредсказуемое число совершенно детерминированным способом. Почему ты думаешь, что твоя интрига с высовыванием языка требует для моделирования чего-то более сложного, чем ГСЧ?

    CB>>А есть еще более сложные мыслительные феномены, например гештальт или инсайт, которые никогда не будут воспроизведены на машине Тьюринга.

    S>А можно тем, кто никогде не испытывал гештальтов и инсайтов, вкратце обосновать, в каком именно месте эти феномены обходят понятие интуитивной вычислимости?


    Уверен, что словарями и википедией пользоваться умеешь. Поэтому, раз настаиваешь, попробую растолковать использованные понятия на личном опыте.

    Готовься, будет много буков.

    Испытано многократно. Вот одна история. Для построения оптимальной орбитальной структуры навигационных спутников требовалось уметь определять на достаточно длительном промежутке времени статистические характеристики навигационного поля. В первом приближении задача сводилась к вычислению как функции времени площади земной поверхности, из которой одновременно можно наблюдать 4 спутника из группировки. Причем, заказчик устроил соревнование и поручил эту же задачу еще и коллегам из Брауншвейгского Технического университета (Германия).

    Очевидно, что сначала мы попытались пойти простейшим путем и решить задачу методом прямого перебора на компьютере, разбив поверхность Земли на географическую сетку. Более рациональные методы оптимизации не подошли, поскольку критерий, по которому проводилась оптимизация, представлял из себя довольно «рваную» функцию. Однако, быстро пришлось признать бесперспективность прямого перебора. Для решения этой задачи у нас был всего один Intel 486 и расчет значения критерия оптимальности на 1-ом узле сетки занимал 15 минут. Исходя из полученных оценок, пришлось сделать вывод, что мы ни только не получим решение к обещанному сроку, но и не дождемся его в течение года непрерывных расчетов. Требовалось повысить быстродействие алгоритма вычисления площади кратного покрытия зонами видимости навигационных КА, не менее чем в 100 раз.

    С этой задачей я промучился недели три, периодически, то отбрасывая ее (вытисняя в подсознание), то снова возвращаясь к ней. Решение пришло во сне (ИНСАЙТ). Причем в предыдущий вечер я этой задачей не занимался. Естественно я проснулся от неожиданности и часа 2 потратил на запись сна в виде математических формул. Придя на работу, я за полдня запрограммировал и отладил изобретенный алгоритм. Всего 100-150 SLOC, не так уж много за три недели. Этот алгоритм позволил мне визуализировать (дать целостный образ, ГЕШТАЛЬТ) динамику мгновенных зон кратного навигационного покрытия и подключить свое образное мышление. Поэкспериментировал с этой динамической картинкой несколько дней. Очень скоро пришло чувство (заработала ИНТУИЦАЯ), которое позволяло на первой же минуте моделирования определять по картинке «хорошая» или «плохая» выбрана конфигурация и не ждать полного завершения вычислительного эксперимента. Это сократило время моделирования в 15 раз. Дальше – больше. Пришло понимание (опять из ИНТУИЦИИ), чем отличаются «хорошие» конфигурации от «плохих». Это позволило еще раз в 10 сократить количество переборов, за счет того, что плохие конфигурации, а их подавляющее большинство, просто не рассматривались. В результате решение было найдено. И стало понятно, почему оно оптимально.

    Что-то похожее описывает А.Пуанкаре в работе «Математическое творчество», проводя самоанализ решения математической задачи.


    S>>>Это уж как захотите. Я и сейчас себя венцом творения не мню.

    CB>>>>Тараканы с крысами, как вид, живут намного дольше. И еще нас переживут.
    S>>>Речь не о долготе жизни, а о том, что мы уже близки к построению алгоритмического аналога таракана.

    CB>>Оч интересно! Просьба, поподробнее. Мы это кто? Каков критерий аналогичности алгоритма и таракана?

    S>Программисты.

    А это кто? Все программисты Вселенной или только России, или Новосибирска?

    S>Критерий — простой: экспериментальное сравнение.


    Экспериментальное сравнение это не критерий это метод. Критерий эта некоторая мера (цвет, вкус, скорость движения, тли сто-то еще), наложенная на результаты сравнения, которая позволит судить: похож алгоритм на таракана или не похож.


    CB>>>>Про собак не знаю. А кошки (общаюсь 15 лет) мало того, что сами мыслят, да еще, гады, и мои мысли умеют считывать. Уверен.

    S>>>Ну и где граница между мышлением и машиной? Я задал простой вопрос — ты начал юлить. Нехорошо.

    CB>>На какой вопрос я тебе не ответил?

    S>На вопрос: где граница между мышлением и машиной. Я его задаю уже в третий раз.

    Ответ на вопрос "где граница между мышлением и машиной?"

    Согласно, современным воззрениям психологии, человеческое мышление состоит из взаимодействия осознаваемого логического мышления (левополушарного), которое может быть смоделировано машиной Тьюринга, и бессознательного образного мышления (правополушарного), которое этой машиной не моделируется. Сразу оговорюсь, свести интуицию к базе знаний, накопленных человеком нельзя. В 5 лет у Моцарта не было накоплено никаких знаний для того, чтобы создавать гениальные музыкальные произведения.

    Поэтому граница между мышлением и машиной лежит там, где кончается логическое мышление и начинается образное.

    ИМХО, разумеется.
    Re[32]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 26.01.09 09:14
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V> И можно я сам не буду придумывать этот эксперимент? Я ведь даже не понимаю, что мы в нём должны найти!


    Не! Я не пытаюсь опровергнуть или подтвердить теорию. Делать мне больше нечего.
    Я утверждаю, что твоя теория такая же нефальсифицируемая, как и моя. Ты считаешь, что она научна, я прошу предъявить эксперимент. Так что придумывать тебе
    Но я предлагаю на это забить и согласиться с нефальсифицируемостью (хотя бы -- практической) обеих теорий.
    Делай что должно, и будь что будет
    Re[13]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 26.01.09 10:08
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    S>Здравствуйте, SergH, Вы писали:


    SH>>Один нюанс. Ты просишь ответ на формальном языке, т.е. с точки зрения машины. Я не уверен, что такой ответ существует, даже если разница есть

    S>[...]Я спросил напрямую: мыслит ли вирус?
    S>Ответа нет.

    Мой ответ: НЕ ЗНАЮ И ЗНАТЬ НЕ ХОЧУ!

    Да, дался тебе этот вирус. Живой он, не живой, мыслит, не мыслит. Это на понимание информации не влияет. С точки зрения философии программирования мне совершенно без разницы мыслят ли кошки, тараканы или вирусы.

    Я утверждал, что информация – продукт в первую очередь человека. Я допускаю, что информацию могут порождать и другие виды живой материи, но я нигде не говорил о том, что ВСЯ живая материя способна мыслить.

    В программировании я пока не сталкивался с продуктами мыслительной деятельности, произведенными не человеком, а кем-то еще. Давай человеком и ограничимся, если цель не поспорить, а понять друг друга.
    Re[20]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 26.01.09 10:35
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    V>>А существует ли оно вообще, это самое "объективное содержание информации"?


    AVK>Существует. Второй закон термодинамики еще не забыл? Или считаешь, что он не объективен?


    Не совсем понятна уместность упоминания второго закона термодинамики применительно к "объективному содержанию информации".

    Из того, что в изолированной системе энтропия возрастает, ещё не следует, что информационная ценность объекта при этом непременно уменьшается.
    В конце концов, огромная масса физических, химических, и даже вычислительных экспериментов основана на том, что мы тщательно изолируем систему, ждём некоторое время завершения переходного процесса (чтобы энтропия выжрала мешающие нам флуктуации), и только после этого снимаем с системы интересующую нас информацию.
    Re[33]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 26.01.09 13:18
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Я утверждаю, что твоя теория такая же нефальсифицируемая, как и моя. Ты считаешь, что она научна, я прошу предъявить эксперимент. Так что придумывать тебе


    Ты не можешь придумать эксперимент, который подтвердит то, что мозг не извлекает сведений из квантовых явлений. И я тоже не могу так как подтверждение гарантированного отсутствия какого-то явления в природе — действительно не всегда возможно. Из того, что я ни разу в жизни не встречал на улице живого тиранозавра, вовсе не следует, что я его не встречу завтра. Присутствие же явления доказывается легче. Достаточно лишь предъявить живого тиранозавра, и гипотеза о том, что они вымерли, окажется ложной.

    Для того, чтобы опровергнуть гипотезу о том, что мозг не извлекает сведений из квантовых явлений, достаточно предъявить пример того, что мозг способен решать задачи, не имеющие алгоритмического решения. А за одно продемонстрировать, что квантовые вычислители тоже могут решать такие задачи.

    Для того, чтобы доказать ненаучность моего предположения, достаточно любого из следующих двух:
    — Доказать, что не существует задач, не имеющих алгоритмического решения. То, что я с ходу не могу придумать/вспомнить такую задачу — не доказательство, см. выше пример с тиранозавром.
    — Доказать, что способность решения задач, не имеющих алгоритмического решения, не может быть подтверждена экспериментально. То, что я с ходу не могу придумать схему эксперимента — тоже не доказательство.

    Боюсь только, что можно в данном случае применять критерий Поппера рекурсивно безо всякой надежды достигнуть "дна". И этим окончательно друг друга задолбаем

    SH>Но я предлагаю на это забить и согласиться с нефальсифицируемостью (хотя бы -- практической) обеих теорий.


    Забить — легче всего. Тем более, когда физиология высшей нервной деятельностью не входит в круг должностных обязанностей.
    Re[18]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 26.01.09 13:33
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Есть масса способов перейти от аналогового к цифровому миру. См., к примеру, преобразование Фурье и преобразование Адамара.


    Преобразование Фурье применимо только к периодическому сигналу. Для непериодического есть интеграл Фурье, который на выходе даёт... тоже аналоговую функцию.
    Re[34]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 26.01.09 13:35
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Ты не можешь придумать эксперимент, который подтвердит то, что мозг не извлекает сведений из квантовых явлений. И я тоже не могу так как подтверждение гарантированного отсутствия какого-то явления в природе — действительно не всегда возможно.


    Наоборот.

    Чтобы доказать "научность", я должен искать эксперимент, который может опровергнуть мою теорию. Т.е. это мне дял научности нужно "гарантировано опровергнуть". Именно поэтому я сразу сдался На научность не претендую. Только на истинность

    А подтверждения я бы искал в области стабильного не совпадения чего-нибудь с каким-нибудь мат-ожиданием. Т.е. должно оказаться, что "квантовый шум" распределён не равномерно. Но это (имхо) должно проявляться в макро-системах. Очень мутное описание, это понято. Ничего не ясно: ни что мерить, ни вообще...

    V>Забить — легче всего. Тем более, когда физиология высшей нервной деятельностью не входит в круг должностных обязанностей.


    Единогласно
    Делай что должно, и будь что будет
    Re[19]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 26.01.09 13:37
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Преобразование Фурье применимо только к периодическому сигналу. Для непериодического есть интеграл Фурье, который на выходе даёт... тоже аналоговую функцию.


    А если частота конечна? Ну, т.е. амплитуда высокочастотных составляющих не превосходит погрешность аналогового прибора?
    Делай что должно, и будь что будет
    Re[20]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 26.01.09 14:57
    Оценка:
    Здравствуйте, SergH, Вы писали:

    V>>Преобразование Фурье применимо только к периодическому сигналу. Для непериодического есть интеграл Фурье, который на выходе даёт... тоже аналоговую функцию.


    SH>А если частота конечна? Ну, т.е. амплитуда высокочастотных составляющих не превосходит погрешность аналогового прибора?


    Кто ж не помнит старика Котельникова?

    Проблема в том, что даже если спектр сигнала ограничен (от 0 до некоего Fmax), то это всё равно не мешает ему быть непрерывным. И тогда преобразование Фурье всё равно должно один непрерывный сигнал превратить в другой непрерывный сигнал.

    Теоретически, в этом случае дискретизация с достаточной частотой должна дать полное описание сигнала. Но оно будет полным только если мы измерим сигнал бесконечное количество раз. Так что всё равно вылезла бесконечность.
    Re[21]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 26.01.09 15:00
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Теоретически, в этом случае дискретизация с достаточной частотой должна дать полное описание сигнала. Но оно будет полным только если мы измерим сигнал бесконечное количество раз. Так что всё равно вылезла бесконечность.


    Дополнить справа нулями?
    Делай что должно, и будь что будет
    Re[21]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 15:05
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Не совсем понятна уместность упоминания второго закона термодинамики применительно к "объективному содержанию информации".


    Та информация, которая рассматривается в теории информации — штука весьма объективная со всем ее содержанием. Твоя интерпретация этого содержимого — субъективна.

    V>Из того, что в изолированной системе энтропия возрастает, ещё не следует, что информационная ценность объекта при этом непременно уменьшается.


    Информационная ценность — конечно же субъективна.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[19]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 15:05
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Преобразование Фурье применимо только к периодическому сигналу.


    Для сильно непериодических есть преобразование Лапласа, вейвлеты.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[33]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 15:05
    Оценка:
    Здравствуйте, thesz, Вы писали:

    T>Только алгоритмы квантовые.


    Пока еще никто не продемонстрировал, как квантовые процессы воздействуют на макроуровень нейронов. Все ссылки, которые мне приводили в аналогичном топике, были какой то туфтой.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[21]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 15:07
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Теоретически, в этом случае дискретизация с достаточной частотой должна дать полное описание сигнала. Но оно будет полным только если мы измерим сигнал бесконечное количество раз. Так что всё равно вылезла бесконечность.


    Так и аналоговые средства обработки сигнала тоже не обладают 100% точностью, если нет ОУ с К = бесконечности, идеальных проводов без емкости и индуктивности и т.п.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[22]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 26.01.09 15:07
    Оценка:
    Здравствуйте, SergH, Вы писали:

    V>>Теоретически, в этом случае дискретизация с достаточной частотой должна дать полное описание сигнала. Но оно будет полным только если мы измерим сигнал бесконечное количество раз. Так что всё равно вылезла бесконечность.


    SH>Дополнить справа нулями?


    В смысле?
    Re[23]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 26.01.09 15:16
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>>>Теоретически, в этом случае дискретизация с достаточной частотой должна дать полное описание сигнала. Но оно будет полным только если мы измерим сигнал бесконечное количество раз. Так что всё равно вылезла бесконечность.

    SH>>Дополнить справа нулями?
    V>В смысле?

    Что, я уже наконец ересь начал нести? Ну по теории вероятности это должно было произойти, сколько можно рассуждать о том, чего практически не понимаешь...

    Имелось ввиду следующее: бесконечных сигналов не бывает. Дослушаем его до конца, а дальше идёт бесконечность нулей, её можно не слушать. Вот тебе бесконечность измерений.

    Дальше, если мы не хотим слушать до конца, мы можем разбить его на кусочки и с каждый из них рассматривать по отдельности, как короткий сигнал, окружённый нулями со всех сторон.
    Делай что должно, и будь что будет
    Re[12]: Несколько дурацких вопросов по теории информации
    От: Sinclair Россия https://github.com/evilguest/
    Дата: 26.01.09 15:22
    Оценка:
    Здравствуйте, craft-brother, Вы писали:
    CB>Испытано многократно. Вот одна история. Для построения оптимальной орбитальной структуры навигационных спутников требовалось уметь определять на достаточно длительном промежутке времени статистические характеристики навигационного поля.
    CB>С этой задачей я промучился недели три, периодически, то отбрасывая ее (вытисняя в подсознание), то снова возвращаясь к ней. Решение пришло во сне (ИНСАЙТ).
    Совершенно непонятно, почему приход решения во сне считается чем-то неалгоритмизуемым. Просто не вся мыслительная деятельность вербализирована. С точки зрения CPU, некоторые задачи расчета векторной графики совершенно неожиданно получают решение, несмотря на то, что CPU ими не занимался. Ничего сверхъестественного в этом нет — просто поработал графический акселератор.

    Точно так же и у тебя — часть мозга продолжала трудиться над задачей. Многоуровневое мышление вообще свойственно всем людям.

    CB>Поэкспериментировал с этой динамической картинкой несколько дней. Очень скоро пришло чувство (заработала ИНТУИЦАЯ), которое позволяло на первой же минуте моделирования определять по картинке «хорошая» или «плохая» выбрана конфигурация и не ждать полного завершения вычислительного эксперимента.

    Заметь: это чувство заработало не "искаропки", а только после тренировки на некотором объеме входных данных.
    Именно об этом я и говорил — интуиция является невербализованным представлением накопленного опыта. Ты поэкспериментировал с картинкой — получил входные данные для распознавания образов, которое у человека офигенно прокачано. Причем никаких свидетельств в пользу неалгоритмизуемости этого процесса пока тоже нет. Точно так же, как при переходе дороги никто не занимается в уме осознанным решением дифуров, тем не менее, средний пешеход достаточно удачно оценивает вероятность попасть под машину.

    В общем, замечательная история. Тем не менее, служить аргументом в пользу неалгоритмизуемости мышления оно вряд ли может.

    CB>Согласно, современным воззрениям психологии, человеческое мышление состоит из взаимодействия осознаваемого логического мышления (левополушарного), которое может быть смоделировано машиной Тьюринга, и бессознательного образного мышления (правополушарного), которое этой машиной не моделируется. Сразу оговорюсь, свести интуицию к базе знаний, накопленных человеком нельзя. В 5 лет у Моцарта не было накоплено никаких знаний для того, чтобы создавать гениальные музыкальные произведения.

    Сразу оговорюсь, что на основе пройденных в университете курсов по психологии, я с большим подозрением отношусь к околопсихологическим наукам. Ты не мог бы уточнить, какой именно раздел психологии берет на себя смелость заявлять не немоделируемости машиной Тьюринга работы правого полушария? А то большинство моих знакомых психологов машину Тьюринга от премии Тьюринга не отличают.
    Уйдемте отсюда, Румата! У вас слишком богатые погреба.
    Re[14]: Несколько дурацких вопросов по теории информации
    От: Sinclair Россия https://github.com/evilguest/
    Дата: 26.01.09 15:27
    Оценка:
    Здравствуйте, craft-brother, Вы писали:


    CB>Да, дался тебе этот вирус. Живой он, не живой, мыслит, не мыслит. Это на понимание информации не влияет.

    Как это не влияет???
    Если мыслит — значит, в нём есть информация.
    А вовсе не данные, записанные на материальном носителе — биомолекуле.

    CB>Я утверждал, что информация – продукт в первую очередь человека.

    Очень хорошо. То есть без человека информация существовать не может. Или, вот, к примеру, приматы — они тоже имеют право на информацию?

    CB>Я допускаю, что информацию могут порождать и другие виды живой материи, но я нигде не говорил о том, что ВСЯ живая материя способна мыслить.

    Прекрасно. Давайте поймем, где же проходит граница "смысла". Кто имеет право придавать данным смысл, делая их информацией? Ну, кроме человека?
    CB>В программировании я пока не сталкивался с продуктами мыслительной деятельности, произведенными не человеком, а кем-то еще. Давай человеком и ограничимся, если цель не поспорить, а понять друг друга.
    Если мы ограничимся человеком, то всё обсуждение феномена информации сведется к тому, что веревка суть вервие простое.
    Для хоть какого-то конструктива придется отделить смысл от человека, или согласиться с тем, что информация — это таки мера неопределенности, и всё по-прежнему обстоит так, как преподавали в школе.
    Уйдемте отсюда, Румата! У вас слишком богатые погреба.
    Re[24]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 26.01.09 16:06
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Имелось ввиду следующее: бесконечных сигналов не бывает. Дослушаем его до конца, а дальше идёт бесконечность нулей, её можно не слушать. Вот тебе бесконечность измерений.

    Не аккуратно, доктор!

    Re[22]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 26.01.09 16:11
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Так и аналоговые средства обработки сигнала тоже не обладают 100% точностью, если нет ОУ с К = бесконечности, идеальных проводов без емкости и индуктивности и т.п.


    Эти факторы нам не помогают, а мешают.

    Впрочем, таки помогают. Помогают с чистой совестью забить болт на мелкие занудные неточности и с чистой совестью переводить всё в уютную и приятную во всех отношениях цифру.
    Re[20]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 26.01.09 16:15
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Для сильно непериодических есть преобразование Лапласа


    Тоже непрерывная функция на выходе.

    AVK>, вейвлеты.


    Ничего не скажу. Не юзал. Но тоже наверняка с абсолютной точностью не впихивает "вещественный" сигнал в конечное число знаков.
    Re[21]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 17:12
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    AVK>>Для сильно непериодических есть преобразование Лапласа


    V>Тоже непрерывная функция на выходе.


    Так и у преобразования Фурье непрерывная, что не мешает его считать цифровыми методами.

    V>Ничего не скажу. Не юзал. Но тоже наверняка с абсолютной точностью не впихивает "вещественный" сигнал в конечное число знаков.


    В десятый раз повторяю — абсолютная точность невозможна и в аналоговых вычислениях.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[22]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 26.01.09 18:23
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    V>>Тоже непрерывная функция на выходе.

    AVK>Так и у преобразования Фурье непрерывная, что не мешает его считать цифровыми методами.

    Просто потому, что часто используется в цифровой технике.

    AVK>В десятый раз повторяю — абсолютная точность невозможна и в аналоговых вычислениях.


    Обсуждение про оцифровку началось с того, что я сказал, что максимальную теоретическую информационную ёмкость аналогового сигнала (не важно, напряжение на клемме или угол удара ногой по мячу) посчитать невозможно. Если количество состояний бесконечно, то и его логарифм тоже бесконечен.

    Рассуждения о том, как этот сигнал можно оцифровать и чем при этом можно пренебречь, в рамках наших рассуждений некорректны.

    Даже если бы Большой Взрыв был параметризован всего одним вещественным числом (например, числом пи), всё равно, за счёт многочисленных повсеместно возникающих точек бифуркации, новорожденная вселенная всё равно получила бы своё бесконечное разнообразие. Малые отклонения угла столкновения сферических коней приводит к большим отклонениям их траекторий, и как следствие, к ещё большим отклонениям углов их последующих столкновений.

    Похоже на ответ на вопрос "Откуда берётся в природе информация?" или нет?

    Сам спросил, сам ответил. Полёт нормальный

    P.S. Это, конечно, больше похоже на вопрос о природе разнообразия. А информацией оно становится на наших рецепторах. А также на рецепторах прочих тварей, рукотворных и нерукотворных.
    Re[13]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 26.01.09 18:30
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, craft-brother, Вы писали:


    CB>>[...]

    CB>>Что-то похожее описывает А.Пуанкаре в работе «Математическое творчество», проводя самоанализ решения математической задачи.

    V>Вообще, интроспекция считается не очень хорошим методом исследования работы мозга.


    Ну, лично я против трепанации и экспериментов над людьми даже, если они помогут понять, что такое информация.



    V>Дело, в частности, в том, что речевой механизм (зона Брока и зона Вернике) не имеет непосредственных связей со всеми без исключения остальными структурами. Соответственно, есть масса мыслительных процессов, которые мы не можем выразить словами. Кора больших полушарий, где, предположительно, сидит сознание, тоже не на всё завязана. Бывает, что в процесс решения задачи втягиваются механизмы, функционально далёкие от коры больших полушарий. При интенсивном размышлении мозг выстраивает множество ассоциативных цепочек, часть из которых может проходить через зрительный центр (например, представляем себе систему ограничения доступа в виде злобного цепного пса, брызжущего слюной), часть — через слуховой отдел, часть — через древнейшую обонятельную луковицу. Большинство этих цепочек оказываются полной ерундой и только отвлекают внимание, но некоторые из них оказываются вполне в тему. В самом деле, задействовать для анализа логической стройности умозаключений мощнейший (хоть и слабоконтролируемый) аппарат, в штатном режиме отвечающий за пространственную ориентацию, может оказаться очень даже полезно.


    Может быть, может быть... Но для меня это мало что добавляет к пониманию информации.

    V>Вот и получается, что иногда одного взгляда на структуру базы данных бывает достаточно, чтобы определить, что она жёстко денормализована. Интуиция? Можно назвать и так. Но на самом деле оказывается, что за долгие годы накопления опыта на предварительный анализ корректности структуры БД у человека натренировался какой-то механизм, который сразу выдаёт сигнал "Внимание! Здесь полная фигня!". А у всех остальных людей этот механизм умеет работать только по своему прямому назначению — (предположительно, не знаю...) избегать проблем в межличностном общении.


    + согласен

    CB>>В 5 лет у Моцарта не было накоплено никаких знаний для того, чтобы создавать гениальные музыкальные произведения.


    V>К пяти годам все умственно полноценные детки умеют выражать свои чувства не только словами, но и интонациями. А музыка — это концентрированная интонация. Юный Моцарт научился одними интонациями (без использования слов) выражать свои мысли и чувства. И ещё его научили воспроизводить эти интонации не голосом, а клавишами на клавесине.


    +- ИМХО, музыка, как и другие искусства, это это невербальный язык объективизации и передачи информации от человека к человеку. Интонация в музыке один из главных способов такой передачи. Всему этому можно научить пятилетнего ребенка. Остался вопрос, откуда Моцарт взял саму информацию (мысли и чувства), которую передает его музыка? О том, что ее много в музыке Моцарта, свидетельствует ее историческое признание в культуре.


    CB>>Поэтому граница между мышлением и машиной лежит там, где кончается логическое мышление и начинается образное.


    V>Образ — это тоже информационная сущность, которую, как и всякую инф. сущность, тоже можно как-то закодировать и скормить некоему вычислителю, заточенному под операции с "образной арифметикой". Почему нет?


    + 1024. Оталось ответить на два вопроса:

    1. Как мысль закодировать? Как должен быть устроен язык для ее выражения?
    2. И что за арифметика будет у этого вычислителя? Есть гипотеза, что аксиоматика Пеано в этом случае не поможет.

    Успехов.
    Re[22]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 19:26
    Оценка:
    AndrewVK wrote:

    > Так и аналоговые средства обработки сигнала тоже не обладают 100%

    > точностью, если нет ОУ с К = бесконечности, идеальных проводов без
    > емкости и индуктивности и т.п.
    Это если мы знаем, что нам больше некоего значения хватит и не надо больше. Скажем, слышимых для человека герц с избытком хватит 100к, поэтому музыку можно цифровать. А если же мы решаем некую абстрактную задачу, то ограничения могут быть настолько далеко, что стольких цифр во вселенной не найдётся или того хуже — в зависимости от выбранного потолка будут получаться совершенно различные результаты.
    А вообще, причём тут преобразование фурье? Оно работает с числами вещественными, а цифра — с натуральными, их банально "меньше".
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[23]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 19:39
    Оценка:
    Здравствуйте, ., Вы писали:

    .>Это если мы знаем, что нам больше некоего значения хватит и не надо больше. Скажем, слышимых для человека герц с избытком хватит 100к, поэтому музыку можно цифровать. А если же мы решаем некую абстрактную задачу, то ограничения могут быть настолько далеко, что стольких цифр во вселенной не найдётся или того хуже — в зависимости от выбранного потолка будут получаться совершенно различные результаты.


    Ну и что из этого следует?

    .>А вообще, причём тут преобразование фурье?


    Пример аналогового преобразования, которое можно выполнять и в цифровом виде. Математика для перехода от одного к другому имеется.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[23]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 19:39
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Просто потому, что часто используется в цифровой технике.


    Конечно, потому и привел в качестве примера.

    V>Обсуждение про оцифровку началось с того, что я сказал, что максимальную теоретическую информационную ёмкость аналогового сигнала (не важно, напряжение на клемме или угол удара ногой по мячу) посчитать невозможно.


    Возможно. В одиннадцатый раз — обработка аналоговых сигналов точно так же ограничена по точности. Природа ограничений другая, но результат тот же.

    V> Если количество состояний бесконечно, то и его логарифм тоже бесконечен.


    Количество различимых состояний — не бесконечно.

    V>P.S. Это, конечно, больше похоже на вопрос о природе разнообразия. А информацией оно становится на наших рецепторах. А также на рецепторах прочих тварей, рукотворных и нерукотворных.


    Можно сколь угодно широко трактовать термин "информация", но в теории информации под ним имеется вполне конкретная семантика.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[24]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 19:55
    Оценка:
    AndrewVK wrote:

    > .>Это если мы знаем, что нам больше некоего значения хватит и не надо

    > больше. Скажем, слышимых для человека герц с избытком хватит 100к,
    > поэтому музыку можно цифровать. А если же мы решаем некую абстрактную
    > задачу, то ограничения могут быть настолько далеко, что стольких цифр во
    > вселенной не найдётся или того хуже — в зависимости от выбранного
    > потолка будут получаться совершенно различные результаты.
    > Ну и что из этого следует?
    Что как чего не преобразовывай, но почти всякую вещественную функцию алгоритмически (то бишь в цифрах) не посчитать.

    > .>А вообще, причём тут преобразование фурье?

    > Пример аналогового преобразования, которое можно выполнять и в цифровом
    > виде. Математика для перехода от одного к другому имеется.
    Да причём тут оно? Если записывать амплитуду сигнала с дискретностью 2^32 уровней и шагом 1мс, то уже получится обычная цифра (wav-файл практически), без всяких хитрых преообразований. Но это не аналоговый сигнал уже, а "жалкое его подобие".
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[24]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 19:57
    Оценка:
    AndrewVK wrote:

    > Количество различимых состояний — не бесконечно.

    Конкретным прибором — да. А физически?
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[13]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 26.01.09 19:59
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    S>Точно так же и у тебя — часть мозга продолжала трудиться над задачей. Многоуровневое мышление вообще свойственно всем людям.


    Все так, только эта деятельность моего мозга мной не осознана и, хотя бы, поэтому не может быть выражена мной в алгоритме. И какой крутой программист мне в этом поможет?

    S>Заметь: это чувство заработало не "искаропки", а только после тренировки на некотором объеме входных данных.

    S>Именно об этом я и говорил — интуиция является невербализованным представлением накопленного опыта. Ты поэкспериментировал с картинкой — получил входные данные для распознавания образов, которое у человека офигенно прокачано. Причем никаких свидетельств в пользу неалгоритмизуемости этого процесса пока тоже нет. Точно так же, как при переходе дороги никто не занимается в уме осознанным решением дифуров, тем не менее, средний пешеход достаточно удачно оценивает вероятность попасть под машину.

    + согласен.

    Давай согласимся. Есть две гипотезы.

    1) Твоя. Человеческое мышление может быть полностью представлено языком бит и логических операций над ними (машина Тьюринга).

    2) Моя. Не все результаты мышления могут быть получены машиной Тьюринга.

    Ни то, ни другое на сегодня, вроде бы (может не все знаю?), не доказано. Поэтому можем только рассуждать, но не утверждать...

    Мои аргументы.

    Например. На сегодня не существует эффективных алгоритмов символьного решения геометрических задач уровня средней школы. Почему?

    Моя версия. Основным шагом в решении геометрической задачи есть «дополнительное построение». ИМХО, это гештальт, как его определяет Вертхеймер, результат, который не может быть получен при помощи логических операций над данными.

    Твоя версия?

    Готов ли ты дать хотя бы намек на алгоритм и исходные данные, по которым может быть вычислена машиной Тьюринга такая простая вещь, как колесо, если изначально оно в алгоритме и исходных данных не существовало?


    S>Сразу оговорюсь, что на основе пройденных в университете курсов по психологии, я с большим подозрением отношусь к околопсихологическим наукам. Ты не мог бы уточнить, какой именно раздел психологии берет на себя смелость заявлять не немоделируемости машиной Тьюринга работы правого полушария? А то большинство моих знакомых психологов машину Тьюринга от премии Тьюринга не отличают.


    Можешь считать, что гипотеза о невычислимости всего мышления при помощи машины Тьюринга моя. На психологию я ссылался только для определения двух разных типов мышления. Но что это меняет?

    ИМХО, такой науки "психология" нет. Предмет есть, ученые есть, труды есть, а науки — нет. Как и науки "информатика"
    Re[14]: Несколько дурацких вопросов по теории информации
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 26.01.09 20:22
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>Здравствуйте, Sinclair, Вы писали:


    [cut]

    CB>Давай согласимся. Есть две гипотезы.


    CB>1) Твоя. Человеческое мышление может быть полностью представлено языком бит и логических операций над ними (машина Тьюринга).


    CB>2) Моя. Не все результаты мышления могут быть получены машиной Тьюринга.


    CB>Ни то, ни другое на сегодня, вроде бы (может не все знаю?), не доказано. Поэтому можем только рассуждать, но не утверждать...


    Вот у меня вопрос, если человек неразрешимость проблемы останова машины Тьюринга, то это как-то можно учесть в рассуждениях по поводу моделирования мышления при помощи этой же машины Тьюринга?
    P.S. Помнится читал давненько интересную статью (правда уже не могу найти её) о Теореме Гёделя, там была мысль о том, что математика рассматривает в своих построениях замкнутые формальные системы, тогда как человек (или точней надо брать всё человечество, наверное) всё время пополняет набор "инструментов" и получается своего рода "открытая" система.
    Re[25]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 20:30
    Оценка:
    Здравствуйте, ., Вы писали:

    .>Что как чего не преобразовывай, но почти всякую вещественную функцию алгоритмически (то бишь в цифрах) не посчитать.


    Такое ощущение, что никто не читает, что я пишу. Нельзя посчитать абсолютно точно ни цифровым, ни аналоговым способом. А с заданной погрешностью можно и тем и другим.

    >> .>А вообще, причём тут преобразование фурье?

    >> Пример аналогового преобразования, которое можно выполнять и в цифровом
    >> виде. Математика для перехода от одного к другому имеется.
    .>Да причём тут оно?

    Пример аналогового преобразования, которое можно выполнять и в цифровом виде.


    .> Если записывать амплитуду сигнала с дискретностью 2^32 уровней и шагом 1мс, то уже получится обычная цифра (wav-файл практически), без всяких хитрых преообразований.


    Да.

    .> Но это не аналоговый сигнал уже, а "жалкое его подобие".


    Это тот же аналоговый сигнал, представленный в цифровой форме с определенной погрешностью.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[25]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 20:30
    Оценка:
    Здравствуйте, ., Вы писали:

    >> Количество различимых состояний — не бесконечно.

    .>Конкретным прибором — да. А физически?

    Что значит "физически"?
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[15]: Несколько дурацких вопросов по теории информации
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 26.01.09 20:33
    Оценка:
    Здравствуйте, Курилка, Вы писали:

    [cut]
    К>P.S. Помнится читал давненько интересную статью (правда уже не могу найти её) о Теореме Гёделя, там была мысль о том, что математика рассматривает в своих построениях замкнутые формальные системы, тогда как человек (или точней надо брать всё человечество, наверное) всё время пополняет набор "инструментов" и получается своего рода "открытая" система.

    Наврал, не так давно было и нашёл статью — здесь, надо будет перечитать, в тот раз, чувствую, многое недопонял там.
    Re[15]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 26.01.09 20:39
    Оценка:
    Здравствуйте, Курилка, Вы писали:

    К>Вот у меня вопрос, если человек неразрешимость проблемы останова машины Тьюринга, то это как-то можно учесть в рассуждениях по поводу моделирования мышления при помощи этой же машины Тьюринга?


    ИМХО, это, вряд ли…


    К>P.S. Помнится читал давненько интересную статью (правда уже не могу найти её) о Теореме Гёделя, там была мысль о том, что математика рассматривает в своих построениях замкнутые формальные системы, тогда как человек (или точней надо брать всё человечество, наверное) всё время пополняет набор "инструментов" и получается своего рода "открытая" система.


    А вот это похоже на правду. Изготавливать новые инструменты для решения своих задач – одно из любимейших занятий не только программистов, но и большинства человечества. И это все от лени.
    Re[34]: Несколько дурацких вопросов по теории информации
    От: thesz Россия http://thesz.livejournal.com
    Дата: 26.01.09 20:48
    Оценка:
    T>>Только алгоритмы квантовые. Поэтому что вышло — то и вышло.
    V>Какая разница, на чём физически реализован алгоритм?

    Как бы большая.

    NP-полные задачи на квантовом основании решаются за полиномиальное время. В отличии от.

    T>>Да, и: новая информация берётся из энергии. Энергия в мозг поступает из крови. То есть, создание новой информации в мозгу возможно, а в человеке в целом — нет.

    V>Информация из энергии не берётся, если только эта энергия не несёт в себе сигнал. Компьютер, например, при выполнении алгоритма берёт информацию из исходных данных, а не из потребляемого электричества.

    Если я устрою достаточно сильную помеху, то компьютер возьмет информацию из энергии. Nes pa?
    Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
    Re[34]: Несколько дурацких вопросов по теории информации
    От: thesz Россия http://thesz.livejournal.com
    Дата: 26.01.09 20:49
    Оценка:
    T>>Только алгоритмы квантовые.
    AVK>Пока еще никто не продемонстрировал, как квантовые процессы воздействуют на макроуровень нейронов. Все ссылки, которые мне приводили в аналогичном топике, были какой то туфтой.

    Ты про отедльный енйрон говоришь, или про их совокупность под названием "нервная система"?
    Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
    Re[35]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 20:54
    Оценка:
    Здравствуйте, thesz, Вы писали:

    T>Ты про отедльный енйрон говоришь, или про их совокупность под названием "нервная система"?


    Я про любой наблюдаемый на макроуровне процесс.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[26]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 21:04
    Оценка:
    AndrewVK wrote:

    > .>Что как чего не преобразовывай, но почти всякую вещественную функцию

    > алгоритмически (то бишь в цифрах) не посчитать.
    > Такое ощущение, что никто не читает, что я пишу. Нельзя посчитать
    > абсолютно точно ни цифровым, ни аналоговым способом. А с заданной
    > погрешностью можно и тем и другим.
    Просто для аналоговых преобразований мы можем использовать физические явления. Скажем, интерференция света, или, не дай боже, квантовые процессы.

    >> > .>А вообще, причём тут преобразование фурье?

    >> > Пример аналогового преобразования, которое можно выполнять и в цифровом
    >> > виде. Математика для перехода от одного к другому имеется.
    > .>Да причём тут оно?
    > Пример аналогового преобразования, которое можно выполнять и в
    > цифровом виде.
    Это просто технически удобная матмодель.

    > .> Но это не аналоговый сигнал уже, а "жалкое его подобие".

    > Это тот же аналоговый сигнал, представленный в цифровой форме с
    > определенной погрешностью.
    А для всех ли физических процессов (у которых можно измерять сигналы), можно записать сигнал с такой погрешностью, чтобы записи хватало для восстановления абсолютно идентичного сигнала (а не так, чтобы просто ухо человека не слышало разницы)?
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[26]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 21:11
    Оценка:
    AndrewVK wrote:

    >> > Количество различимых состояний — не бесконечно.

    > .>Конкретным прибором — да. А физически?
    > Что значит "физически"?
    А количество различимых состояний, которые могут быть различены всеми возможными приборами?
    Или иниыми словами.
    Можно ли (потенциально) для данного сигнала и данного прибора, регистрирующего этот сигнал построить более точный прибор, который будет регистрировать больше информации об этом сигнале? Или мы упрёмся в некий предел — дальше уже смысла нет уточнять — каждый кварк посчитан и новую информацию извлекать будет уже неоткуда?
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[27]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 21:26
    Оценка:
    Здравствуйте, ., Вы писали:

    .>Просто для аналоговых преобразований мы можем использовать физические явления.


    Можем. Но каждый раз оказывается, что есть какая то фундаментальная причина, ограничивающая точность вычислений.

    .>А для всех ли физических процессов (у которых можно измерять сигналы), можно записать сигнал с такой погрешностью, чтобы записи хватало для восстановления абсолютно идентичного сигнала (а не так, чтобы просто ухо человека не слышало разницы)?


    Теоретически — да. А практически — без понятия, никогда таким вопросом не задавался.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[27]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 26.01.09 21:26
    Оценка:
    Здравствуйте, ., Вы писали:

    .>А количество различимых состояний, которые могут быть различены всеми возможными приборами?


    Очевидно, тоже не бесконечно и ограничено величиной шумов с квантовой природой, которые не устранимы принципиально.

    .>Можно ли (потенциально) для данного сигнала и данного прибора, регистрирующего этот сигнал построить более точный прибор, который будет регистрировать больше информации об этом сигнале? Или мы упрёмся в некий предел


    Упремся.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[28]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 26.01.09 21:48
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    .>>А количество различимых состояний, которые могут быть различены всеми возможными приборами?

    AVK>Очевидно, тоже не бесконечно и ограничено величиной шумов с квантовой природой, которые не устранимы принципиально.
    Причём мы даже, похоже, уже знаем верхнюю границу возможного количества состояний: http://en.wikipedia.org/wiki/Bekenstein_Bound — недавние исследования подтверждают это http://scienceblogs.com/catdynamics/2009/01/white_noise.php
    Sapienti sat!
    Re[28]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 21:55
    Оценка:
    AndrewVK wrote:

    > .>Просто для аналоговых преобразований мы можем использовать физические

    > явления.
    > Можем. Но каждый раз оказывается, что есть какая то фундаментальная
    > причина, ограничивающая точность вычислений.
    Это как? Обычно так не бывает. Просто плавно перестаёт действовать один закон, а начинает действовать другой, не учтённый в модели.

    > .>А для всех ли физических процессов (у которых можно измерять сигналы),

    > можно записать сигнал с такой погрешностью, чтобы записи хватало для
    > восстановления абсолютно идентичного сигнала (а не так, чтобы просто ухо
    > человека не слышало разницы)?
    > Теоретически — да. А практически — без понятия, никогда таким вопросом
    > не задавался.
    А может даже и теоретически нет? Откуда такая уверенность?
    Я говорю не о матмоделях, а о физической реальности.
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[28]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 21:59
    Оценка:
    AndrewVK wrote:

    > .>А количество различимых состояний, которые могут быть различены всеми

    > возможными приборами?
    > Очевидно, тоже не бесконечно и ограничено величиной шумов с квантовой
    > природой, которые не устранимы принципиально.
    А что по твоему такое шумы? Имхо, шумы это лишь то, что осталось за различимыми состояниями. То что не влезло в текущий предел точности.

    > .>Можно ли (потенциально) для данного сигнала и данного прибора,

    > регистрирующего этот сигнал построить более точный прибор, который будет
    > регистрировать больше информации об этом сигнале? Или мы упрёмся в некий
    > предел
    > Упремся.
    Почему ты так уверен? Гипотезы есть... но строго ещё не доказано, насколько я знаю.
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[29]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 26.01.09 22:07
    Оценка:
    Здравствуйте, ., Вы писали:

    .>А что по твоему такое шумы? Имхо, шумы это лишь то, что осталось за различимыми состояниями. То что не влезло в текущий предел точности.

    Напоминаю про: \delta X \delta P >= \hbar / 2
    Sapienti sat!
    Re[29]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 22:17
    Оценка:
    Cyberax wrote:

    > .>>А количество различимых состояний, которые могут быть различены всеми

    > возможными приборами?
    > AVK>Очевидно, тоже не бесконечно и ограничено величиной шумов с
    > квантовой природой, которые не устранимы принципиально.
    > Причём мы даже, похоже, уже знаем верхнюю границу возможного количества
    > состояний: http://en.wikipedia.org/wiki/Bekenstein_Bound — недавние
    > исследования подтверждают это
    Что-то я не понял. Если это просто ограничение на то, что может максимум посчитать МТ используя данное число энергии, то это не говорит о том, что мы можем полностью записать всё состояние некоего "объёма вселенной" и детерминированно вычислять его будущее состояние таким образом, что оно будет в точности таким же как у оригинала. Возможно ли вообще получить замкнутую систему? Скажем, гравитацию нельзя "заэкранировать", а значит для описания частиц в данном объёме нужно в точности смоделировать гравитационное поле, которое создаёт в это
    м объёме вся Вселенная (или как минимум довольно большая её часть).
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[30]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 22:20
    Оценка:
    Cyberax wrote:

    > .>А что по твоему такое шумы? Имхо, шумы это лишь то, что осталось за

    > различимыми состояниями. То что не влезло в текущий предел точности.
    > Напоминаю про: \delta X \delta P >= \hbar / 2
    Это неопределённость Гейзенберга? А X и P тут вещественные величины или из конечного множества?
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[30]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 22:35
    Оценка:
    Cyberax wrote:

    > .>Обычно так не бывает. Просто плавно перестаёт действовать один закон,

    > а начинает действовать другой, не учтённый в модели.
    > Ну так и происходит. Вот в эксперименте GIGO очень точно измеряют
    > расстояние (с точностью меньшей размера протона!) для обнаружения
    > гравитационных волн. Так у них сейчас пошёл белый шум на определённых
    > частотах.
    Непонятно. А если этот "белый шум" генерится очень хорошим ГПСЧ? Или вообще хорошо пожатая информация, она выглядит как шум.
    Может это и есть ГлаГос?

    > Этот шум хорошо согласуется с предсказанием "голографической модели". И

    > если мы будем дальше увеличивать точность — фигня получится. Как на

    > электронной фотографии — если её увеличивать, то мы просто будем

    > наблюдать большие пиксели.
    Т.е. есть минимальная ячейка пространства? Т.е. что-то вроде поля игры "жизнь"? Допустим. А поле бесконечное?

    > .>А может даже и теоретически нет? Откуда такая уверенность?

    > .>Я говорю не о матмоделях, а о физической реальности.
    > В реальности тоже ограничения есть.
    Мне тоже кажется, что есть. Но это пока только гипотезы.
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[31]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 26.01.09 22:49
    Оценка:
    Здравствуйте, ., Вы писали:

    .>Непонятно. А если этот "белый шум" генерится очень хорошим ГПСЧ? Или вообще хорошо пожатая информация, она выглядит как шум.

    Может. Это и ошибка эксперимента может быть, но очень уж хорошо с теорией согласуется. Причём она фальсифицируема даже с текущим уровнем техники, сейчас уже думают эксперименты.

    .>Может это и есть ГлаГос?



    .>Т.е. есть минимальная ячейка пространства?

    Они есть в любом случае. Просто раньше речь шла о планковских размерах, которые для нас практически недостижимы. Если голографический принцип верен, то эти ячейки будут намного грубее, и доступны уже для современной науки.

    .>Т.е. что-то вроде поля игры "жизнь"? Допустим. А поле бесконечное?

    Похоже, что тоже конечное — оно ограничено радиусом Хаббла. Т.е. сферой, куда ты можешь добраться, если сейчас полетишь со скоростью света.

    Многие наблюдаемые объекты сейчас уже за этой сферой. Т.е. хоть мы их и видим, но добраться до них не получится (если не будет найдена возможность преодолеть скорость света).
    Sapienti sat!
    Re[36]: Несколько дурацких вопросов по теории информации
    От: thesz Россия http://thesz.livejournal.com
    Дата: 26.01.09 22:52
    Оценка:
    T>>Ты про отедльный енйрон говоришь, или про их совокупность под названием "нервная система"?
    AVK>Я про любой наблюдаемый на макроуровне процесс.

    Макроуровень — это какой размер?
    Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
    Re[32]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 23:10
    Оценка:
    Cyberax wrote:

    > .>Непонятно. А если этот "белый шум" генерится очень хорошим ГПСЧ? Или

    > вообще хорошо пожатая информация, она выглядит как шум.
    > Может. Это и ошибка эксперимента может быть, но очень уж хорошо с
    > теорией согласуется. Причём она фальсифицируема даже с текущим уровнем
    > техники, сейчас уже думают эксперименты.

    > .>Т.е. есть минимальная ячейка пространства?

    > Они есть в любом случае. Просто раньше речь шла о планковских размерах,
    А взаимодействия? Ведь на атом влияет гравитация всех звёзд.

    > которые для нас практически недостижимы. Если голографический принцип

    > верен, то эти ячейки будут намного грубее, и доступны уже для
    > современной науки.
    Интересно. Но детали непонятны.

    > .>Т.е. что-то вроде поля игры "жизнь"? Допустим. А поле бесконечное?

    > Похоже, что тоже конечное — оно ограничено радиусом Хаббла. Т.е. сферой,
    По принципу просто-гениалности наверное так и есть. Но ведь может на вселенную действует какая-то другая сила, из метавселенной. Пятый вид взаимодействия, возникающий на межвселенских масштабах.

    > куда ты можешь добраться, если сейчас полетишь со скоростью света.

    > Многие наблюдаемые объекты сейчас уже за этой сферой. Т.е. хоть мы их и
    > видим, но добраться до них не получится (если не будет найдена
    > возможность преодолеть скорость света).
    Ага, тоже интересное "если". Даже если и не удастся добраться, но если удастся хотя бы наблюдать те объекты (их текущее состояние, а не свет дошедщий до нас).
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[32]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 23:14
    Оценка:
    Cyberax wrote:

    >> > различимыми состояниями. То что не влезло в текущий предел точности.

    >> > Напоминаю про: \delta X \delta P >= \hbar / 2
    > .>Это неопределённость Гейзенберга? А X и P тут вещественные величины
    > или из конечного множества?
    > Вещественные. Правда, в любом случае квантованые.
    Т.е. область допустимых значений только счётное множество?

    > Т.е. представь, что ты измерил положение электрона с планковой точностью

    > (порядка 10^-43 м.). Но тогда для этого тебе нужен будет фотон такой
    > высокой энергии, что при ударе в электрон возникнет чёрная дыра.
    Это ещё ничего не значит. Может после квантовых компьютеров мы изобретём чёрнодырные?
    И вместо радиоактивных отходов у нас будет проблема куда девать чёрные дыры.

    > То есть, в любом случае, есть ограничения.

    На текущем уровне познания.
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[33]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 26.01.09 23:20
    Оценка:
    Здравствуйте, ., Вы писали:

    >> .>Т.е. есть минимальная ячейка пространства?

    >> Они есть в любом случае. Просто раньше речь шла о планковских размерах,
    .>А взаимодействия? Ведь на атом влияет гравитация всех звёзд.
    Вот тот кто ответит на этот вопрос — получит как минимум Нобелевскую Премию Нету пока квантовой теории гравитации.

    Но в теории, гравитация не должна отличаться от остальных типов взаимодействия.

    >> которые для нас практически недостижимы. Если голографический принцип

    >> верен, то эти ячейки будут намного грубее, и доступны уже для
    >> современной науки.
    .>Интересно. Но детали непонятны.
    Ну так всё просто. Вся информация в сфере радиусом в 1 метр должна быть закодирована на её поверхности. Причём поверхность может кодировать только A/4 бит (где A — это площадь поверхности в планковских единицах).

    Ну а так как площадь поверхности сферы растёт медленнее, чем её объём — то и получаем достаточно крупную "зернистость" пространства.

    >> Похоже, что тоже конечное — оно ограничено радиусом Хаббла. Т.е. сферой,

    .>По принципу просто-гениалности наверное так и есть. Но ведь может на вселенную действует какая-то другая сила, из метавселенной. Пятый вид взаимодействия, возникающий на межвселенских масштабах.
    Это уже отдельный вопрос.

    >> видим, но добраться до них не получится (если не будет найдена

    >> возможность преодолеть скорость света).
    .>Ага, тоже интересное "если". Даже если и не удастся добраться, но если удастся хотя бы наблюдать те объекты (их текущее состояние, а не свет дошедщий до нас).
    Почитай "The Light of Other Days " Артура Кларка (его последняя книга)
    Sapienti sat!
    Re[32]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 23:22
    Оценка:
    Cyberax wrote:

    > Многие наблюдаемые объекты сейчас уже за этой сферой. Т.е. хоть мы их и

    > видим, но добраться до них не получится (если не будет найдена
    > возможность преодолеть скорость света).
    Кстати, интересно. Чисто теоретические рассуждения. Скажем, пусть объект А за сферой. Мы наблюдаем некий близко расположенный к А объект Б, но внутри сферы. Мы же можем по характеристикам Б вычислить характиристику А (как по траекториям известных планет вычисляют траектории неизвестных), т.к. для Б он находится внутри сферы. Т.е. мы можем объекты за сферой наблюдать косвенно по поведению наблюдаемых объектов.
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[34]: Несколько дурацких вопросов по теории информации
    От: . Великобритания  
    Дата: 26.01.09 23:33
    Оценка:
    Cyberax wrote:

    >> > .>Т.е. есть минимальная ячейка пространства?

    >> > Они есть в любом случае. Просто раньше речь шла о планковских размерах,
    > .>А взаимодействия? Ведь на атом влияет гравитация всех звёзд.
    > Вот тот кто ответит на этот вопрос — получит как минимум Нобелевскую
    > Премию Нету пока квантовой теории гравитации.
    Эх... Подождём.

    >> > которые для нас практически недостижимы. Если голографический принцип

    >> > верен, то эти ячейки будут намного грубее, и доступны уже для
    >> > современной науки.
    > .>Интересно. Но детали непонятны.
    > Ну так всё просто. Вся информация в сфере радиусом в 1 метр должна быть
    > закодирована на её поверхности. Причём поверхность может кодировать
    > только A/4 бит (где A — это площадь поверхности в планковских единицах).
    > Ну а так как площадь поверхности сферы растёт медленнее, чем её объём —
    > то и получаем достаточно крупную "зернистость" пространства.
    Почему только на поверхности?
    И не факт, что эту сферу возможно реально отделить от взаимодействия с остальной вселенной.

    >> > Похоже, что тоже конечное — оно ограничено радиусом Хаббла. Т.е. сферой,

    > .>По принципу просто-гениалности наверное так и есть. Но ведь может на
    > вселенную действует какая-то другая сила, из метавселенной. Пятый вид
    > взаимодействия, возникающий на межвселенских масштабах.
    > Это уже отдельный вопрос.
    Ну да. Так что нельзя однозначно ответить, что всё ограничено.

    >> > видим, но добраться до них не получится (если не будет найдена

    >> > возможность преодолеть скорость света).
    > .>Ага, тоже интересное "если". Даже если и не удастся добраться, но если
    > удастся хотя бы наблюдать те объекты (их текущее состояние, а не свет
    > дошедщий до нас).
    > Почитай "The Light of Other Days " Артура Кларка (его последняя книга)
    Уже прочёл недавно, да очень интересная и оригинальная идея. Хотя стиль изложения отстойный.
    Posted via RSDN NNTP Server 2.1 beta
    но это не зря, хотя, может быть, невзначай
    гÅрмония мира не знает границ — сейчас мы будем пить чай
    Re[37]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 27.01.09 00:02
    Оценка:
    Здравствуйте, thesz, Вы писали:

    T>Макроуровень — это какой размер?


    Для простоты возьмем уровень нейрона — все итоговые, наблюдаемые со стороны результаты деятельности мозга выражены в возбуждениях нейронов, это доказано.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[35]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 27.01.09 00:20
    Оценка:
    Здравствуйте, ., Вы писали:

    >> Ну а так как площадь поверхности сферы растёт медленнее, чем её объём —

    >> то и получаем достаточно крупную "зернистость" пространства.
    .>Почему только на поверхности?
    Так это и есть "голографический принцип".

    .>И не факт, что эту сферу возможно реально отделить от взаимодействия с остальной вселенной.

    Никаких сфер, понятное дело, нет. Ты можешь выбрать любую замкнутую поверхность — голографический принцип утверждает, что вся информация внутри этой поверхности может быть представлена на ней.

    >> Почитай "The Light of Other Days " Артура Кларка (его последняя книга)

    .>Уже прочёл недавно, да очень интересная и оригинальная идея. Хотя стиль изложения отстойный.
    Так он писал в соавторстве с Стивеном Бакстером — у него много интересных идей, но пишет он отстойно
    Sapienti sat!
    Re[15]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 27.01.09 06:56
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    S>Здравствуйте, craft-brother, Вы писали:



    CB>>Да, дался тебе этот вирус. Живой он, не живой, мыслит, не мыслит. Это на понимание информации не влияет.

    S>Как это не влияет???
    S>Если мыслит — значит, в нём есть информация.
    S>А вовсе не данные, записанные на материальном носителе — биомолекуле.

    CB>>Я утверждал, что информация – продукт в первую очередь человека.

    S>Очень хорошо. То есть без человека информация существовать не может. Или, вот, к примеру, приматы — они тоже имеют право на информацию?

    CB>>Я допускаю, что информацию могут порождать и другие виды живой материи, но я нигде не говорил о том, что ВСЯ живая материя способна мыслить.

    S>Прекрасно. Давайте поймем, где же проходит граница "смысла". Кто имеет право придавать данным смысл, делая их информацией? Ну, кроме человека?
    CB>>В программировании я пока не сталкивался с продуктами мыслительной деятельности, произведенными не человеком, а кем-то еще. Давай человеком и ограничимся, если цель не поспорить, а понять друг друга.
    S>Если мы ограничимся человеком, то всё обсуждение феномена информации сведется к тому, что веревка суть вервие простое.
    S>Для хоть какого-то конструктива придется отделить смысл от человека, или согласиться с тем, что информация — это таки мера неопределенности, и всё по-прежнему обстоит так, как преподавали в школе.

    Ну, меня учили, что уменьшение энтропии (неопределенности) есть мера информации, а не наоборот. Но, ИМХО, это глупость. Вот, например, скажи, где больше информации в теореме Пифагора или в законе Ома?

    Ну вот, вспомнил, еще один аргумент в пользу того, что мышление полностью не может быть сведено к вычислениям.

    Есть замечательное рассуждение философа Джона Серля (John Searle), известное под названием "Китайская комната". Оно звучит, примерно, так.

    Пусть мышление целиком и полностью является вычислением.

    Предположим, компьютеру рассказали некую историю. Он ее понял, и теперь ведет осмысленное обсуждение этой истории с несколькими людьми. Но и люди, и машина — все говорят только на китайском языке. В той же комнате находится человек, который китайского не знает. Зато он умеет быстро-быстро двигать костяшки на счетах, точно воспроизводя все вычисления, которые делает компьютер при выслушивании, обдумывании и обсуждении истории. Спрашивается: поймет ли этот человек то же самое, что понял компьютер? Вряд ли. Но, если мышление целиком и полностью является вычислением, вроде бы должен был понять — ведь он выполнил нужные вычисления.

    Значит, понимание не сводится к вычислению...

    PS. Есть предложение эту ветку прикрыть и продолжать обсуждение только в одной ветке.
    Re[24]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 27.01.09 07:02
    Оценка:
    Здравствуйте, ., Вы писали:

    .>Осталось доказать физичность вещественных чисел... Могут ли существовать эти некие "малые отклонения"? Или всё квантовано? Всяческие расстояния Планка...


    Направления наверняка не квантуются. Иначе наблюдалась бы масса эффектов даже невооружённым глазом (типа заметного мерцания некоторых звёзд на небе). Да и оптики (особенно лазерные) постоянно сталкивались бы с мелкой шершавостью фронта волны.
    Re[38]: Несколько дурацких вопросов по теории информации
    От: thesz Россия http://thesz.livejournal.com
    Дата: 27.01.09 07:18
    Оценка:
    T>>Макроуровень — это какой размер?
    AVK>Для простоты возьмем уровень нейрона — все итоговые, наблюдаемые со стороны результаты деятельности мозга выражены в возбуждениях нейронов, это доказано.

    Если ты сможешь найти в нейроне важный орган наноразмера (в районе сотни атомов хотя бы по одному измерению), то он будет подчиняться квантовым законам.

    Из того, что я понял из Википедии, там такие элементы есть.

    Например, размер сомы начинается от 3 мкм. Там есть элементы, имеющие размер в десять и более раз меньше.

    Дендриты, например.
    Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
    Re[39]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 27.01.09 07:24
    Оценка:
    Здравствуйте, thesz, Вы писали:

    AVK>>Для простоты возьмем уровень нейрона — все итоговые, наблюдаемые со стороны результаты деятельности мозга выражены в возбуждениях нейронов, это доказано.

    T>Если ты сможешь найти в нейроне важный орган наноразмера (в районе сотни атомов хотя бы по одному измерению), то он будет подчиняться квантовым законам.
    Ты тоже подчиняешься квантовым законам. Сюрприз! При желании, можно любую химическую реакцию рассматривать как квантовое взаимодействие.

    Я тут уже много раз писал, почему мозг не может использовать квантовые вычисления. Ну или может, но только как специализированые "ускорители", работающие циклически.

    T>Дендриты, например.

    И что?
    Sapienti sat!
    Re[24]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 27.01.09 08:19
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Количество различимых состояний — не бесконечно.


    При непосредственном измерении — да. Но я говорю не о метрологии, где действительно ничто и никогда не меряется с абсолютной точностью (кому вообще нужен прибор, показания которого даже невозможно записать?), а о том, что сколь угодно малые отклонения в параметрах реального объекта приводят с течением времени к заметным "на глаз" отклонениям результата.

    Мир чудовищно непредсказуем (полноценный демон Лапласа невозможен по великой прорве самых разнообразных причин), и эта непредсказуемость и даёт нам те самые различимые "возможные состояния", логарифм количества которых в каждом конкретном случае мы снимаем с датчиков.

    Q: Откуда информация берётся, если не существует операций, увеличивающих количество информации, зато есть масса обстоятельств, при которых она исчезает?
    A: Информация берётся с датчиков, снимающих показания с непредсказуемого реального мира.
    Re[38]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 27.01.09 08:27
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Для простоты возьмем уровень нейрона — все итоговые, наблюдаемые со стороны результаты деятельности мозга выражены в возбуждениях нейронов, это доказано.


    Маленькая поправочка. Не все результаты деятельности мозга выражены в возбуждениях нейронов. Часть регуляторных функций осуществляется через выработку специальных сигнальных веществ. Мозг — это ещё и чрезвычайно многофункциональная железа внутренней секреции.
    Re[14]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 27.01.09 08:57
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>... Всему этому можно научить пятилетнего ребенка. Остался вопрос, откуда Моцарт взял саму информацию (мысли и чувства), которую передает его музыка? О том, что ее много в музыке Моцарта, свидетельствует ее историческое признание в культуре.


    Нормально развитый пятилетний ребёнок уже обладает практически полным набором эмоций. Ему ведомы и любовь, и ненависть, и радость приобретений, и горечь утрат, и страх, и боль, и восхищение красотой, и много чего ещё. В конце концов, он, пусть не всегда осознанно, но уже выстраивает для себя очень сложную модель мира. То, что мы называем "здравым смыслом" — родом оттуда, из первых лет жизни.

    Если ребёнок, используя звуки "У" и "А" может доходчиво объяснить, что: "Я думал, Васька с соседнего двора мне друг, а он, мерзавец, взял и сломал мою игрушку. Но он плакал громче, чем я, и поэтому я его, наверно, прощу." — то у ребёнка наверняка есть не хилые музыкальные способности.

    CB>+ 1024. Оталось ответить на два вопроса:

    CB>1. Как мысль закодировать? Как должен быть устроен язык для ее выражения?
    CB>2. И что за арифметика будет у этого вычислителя? Есть гипотеза, что аксиоматика Пеано в этом случае не поможет.

    На этот счёт того, как можно кодировать образы, и какой арифметикой можно было бы ими манипулировать, в голове роятся только какие-то мутные образы
    Re[25]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 27.01.09 09:17
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Мир чудовищно непредсказуем (полноценный демон Лапласа невозможен по великой прорве самых разнообразных причин)

    Кстати, это может быть неверно. Есть подозрение, что квантовый демон Лапласа для подмножества нашей Вселенной может быть возможен. Опять же в связи с этим голографическим принципом.
    Sapienti sat!
    Re[25]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 27.01.09 09:23
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Но я говорю не о метрологии, где действительно ничто и никогда не меряется с абсолютной точностью (кому вообще нужен прибор, показания которого даже невозможно записать?), а о том, что сколь угодно малые отклонения в параметрах реального объекта приводят с течением времени к заметным "на глаз" отклонениям результата.


    Только что ты спрашивал о количестве состояний. Ты уж определись.

    V>Мир чудовищно непредсказуем


    Да. Но это никак не говорит о том, что информацию из сигнала можно извлекать до бесконечности.

    V>(полноценный демон Лапласа невозможен по великой прорве самых разнообразных причин


    Он невозможен по одной единственной причине, принципиальной неопределенности квантовых процессов. Этого достаточно.

    V>), и эта непредсказуемость и даёт нам те самые различимые "возможные состояния"


    Нет.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[39]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 27.01.09 09:23
    Оценка:
    Здравствуйте, thesz, Вы писали:

    T>Если ты сможешь найти в нейроне важный орган наноразмера (в районе сотни атомов хотя бы по одному измерению), то он будет подчиняться квантовым законам.


    Возможно. Но это не означает, что квантовые эффекты пролезут на уровень выше. Пока что эти самые эффекты на макроуровне удается наблюдать только в крайне экзотических ситуациях (например, в конденсате Бозе-Эйнштейна).
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[39]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 27.01.09 09:23
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Маленькая поправочка. Не все результаты деятельности мозга выражены в возбуждениях нейронов. Часть регуляторных функций осуществляется через выработку специальных сигнальных веществ.


    Нейронами???

    V> Мозг — это ещё и чрезвычайно многофункциональная железа внутренней секреции.


    Конечно. Только мы ведь о мыслительной деятельности, не так ли?
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[26]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 27.01.09 09:35
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Он невозможен по одной единственной причине, принципиальной неопределенности квантовых процессов. Этого достаточно.


    Да, достаточно. И ещё есть другие причины, каждой из которых тоже достаточно.

    V>>), и эта непредсказуемость и даёт нам те самые различимые "возможные состояния"


    AVK>Нет.


    Почему нет? Если можно, поподробнее, откуда могли бы взяться "возможные состояния", из которых рождается новая информация если бы реальный мир был алгоритмически вычислимым (т.е. абсолютно предсказуемым)?
    Re[40]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 27.01.09 09:48
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    V>>Маленькая поправочка. Не все результаты деятельности мозга выражены в возбуждениях нейронов. Часть регуляторных функций осуществляется через выработку специальных сигнальных веществ.

    AVK>Нейронами???

    Это надо спрашивать у биологов. Нейрон, вообще, много всего выделяет помимо нейромедиаторов.

    V>> Мозг — это ещё и чрезвычайно многофункциональная железа внутренней секреции.

    AVK>Конечно. Только мы ведь о мыслительной деятельности, не так ли?

    Где-то в этой ветке я уже писал о том, что состяния сознания кодируются в мозгу не импульсацией нейронов, а концентрациями сигнальных веществ. Например, вещество, кодирующее жажду, выделено уже довольно давно. Про адреналин (сигнал всему организму, что можно не экономить энергию) все знают.

    Считать ли это элементом мыслительной деятельности? Думаю, да. Притом важнейшим.
    Re[27]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 27.01.09 10:18
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Да, достаточно. И ещё есть другие причины, каждой из которых тоже достаточно.


    Например? Просто интересно.
    Делай что должно, и будь что будет
    Re[28]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 27.01.09 10:38
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Например? Просто интересно.

    Демон Лапласа — мысленный эксперимент 1814 года, предложенный французским математиком Пьером-Симоном Лапласом, а также главный персонаж этого эксперимента — вымышленное разумное существо, способное, восприняв в любой данный момент вре­мени положение и скорость каждой частицы во Вселенной, узнавать её эволюцию как в будущем, так и в прошлом.

    Проблема в том, что согласно СТО старика Эйнштейна "данный момент вре­мени" в природе не существует. Время относительно.
    Re[17]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 27.01.09 11:20
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, craft-brother, Вы писали:


    CB>>Есть замечательное рассуждение философа Джона Серля (John Searle), известное под названием "Китайская комната". Оно звучит, примерно, так. [...]


    V>Состоятельность этого рассуждения уже много раз оспорена. Даже Станислав Лем стукнул несчастного Джона Серля.


    V>С помощью логического рассуждения, почти один-в-один повторяющего "китайский аргумент" можно легко "доказать", что к вычислению не сводится, например, сортировка или поиск корней квадратного уравнения.


    CB>>PS. Есть предложение эту ветку прикрыть и продолжать обсуждение только в одной ветке.


    V>В какой?


    здесь
    Автор: craft-brother
    Дата: 26.01.09
    Re[14]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 27.01.09 11:29
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>Например. На сегодня не существует эффективных алгоритмов символьного решения геометрических задач уровня средней школы. Почему?

    Чего???

    Геометрия Евклида — это вообще полная по Геделю теория, в ней ВСЕ задачи имеют решение. И для большинства задач они находятся элементарно — делаем аксиоматику, пишем начальное и конечное условие, и пытаемся построить вывод.

    Например, здесь: http://pauillac.inria.fr/coq/
    Sapienti sat!
    Re[29]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 27.01.09 11:32
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Проблема в том, что согласно СТО старика Эйнштейна "данный момент вре­мени" в природе не существует. Время относительно.

    Относительность — это-то как раз ерунда. Там другие проблемы
    Sapienti sat!
    Re[30]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 27.01.09 11:50
    Оценка:
    Здравствуйте, Cyberax, Вы писали:

    V>>Проблема в том, что согласно СТО старика Эйнштейна "данный момент вре­мени" в природе не существует. Время относительно.

    C>Относительность — это-то как раз ерунда. Там другие проблемы

    Какие? И почему относительность -- ерунда? Всё ещё "просто интересно"

    Блин, ну вот все такие умные, ходят и многосмысленно намекают на доступные им тайные знания. Нет чтобы сразу написать.
    Делай что должно, и будь что будет
    Re[15]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 27.01.09 12:25
    Оценка:
    Здравствуйте, Курилка, Вы писали:

    К>Вот у меня вопрос, если человек неразрешимость проблемы останова машины Тьюринга, то это как-то можно учесть в рассуждениях по поводу моделирования мышления при помощи этой же машины Тьюринга?


    Человек тоже не умеет решать проблему останова МТ.

    К>P.S. Помнится читал давненько интересную статью (правда уже не могу найти её) о Теореме Гёделя, там была мысль о том, что математика рассматривает в своих построениях замкнутые формальные системы, тогда как человек (или точней надо брать всё человечество, наверное) всё время пополняет набор "инструментов" и получается своего рода "открытая" система.


    Это потому, что когда человек решает задачу, он, на самом деле решает другую, более жизненную задачу. Например, "чтобы мама не ругалась" или "хочу повышения зарплаты".

    Парадокс брадобрея машинной логикой не разрешим. Но человеческой — вполне. Например, так: "Найму бабу, и пусть только проверяющий возбухнет, что она должна брить себе бороду — я попрошу его эту её небритую бороду показать".

    А эта самая "другая задача" — не одна. Их много. И даже человек обычно не догадывается о существовании некоторых из них. И по большей части они противоречат друг другу.
    Пойти на лекцию или поспать подольше? Поработать или в КЫВТ? И так всю жизнь
    Re[31]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 27.01.09 12:27
    Оценка:
    Здравствуйте, SergH, Вы писали:

    C>>Относительность — это-то как раз ерунда. Там другие проблемы

    SH>Какие? И почему относительность -- ерунда? Всё ещё "просто интересно"
    Для демона Лапласа не нужно иметь абсолютного времени.

    SH>Блин, ну вот все такие умные, ходят и многосмысленно намекают на доступные им тайные знания. Нет чтобы сразу написать.

    Долго писать
    Sapienti sat!
    Re[15]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 27.01.09 13:36
    Оценка:
    Здравствуйте, Cyberax, Вы писали:

    C>Здравствуйте, craft-brother, Вы писали:


    CB>>Например. На сегодня не существует эффективных алгоритмов символьного решения геометрических задач уровня средней школы. Почему?

    C>Чего???

    C>Геометрия Евклида — это вообще полная по Геделю теория, в ней ВСЕ задачи имеют решение. И для большинства задач они находятся элементарно — делаем аксиоматику, пишем начальное и конечное условие, и пытаемся построить вывод.


    У меня закрадывается смутное подозрение, что ты над этой задачей никогда не задумывался. Или я не прав?

    C>Например, здесь: http://pauillac.inria.fr/coq/


    Ну, и зачем эта ссылка?
    Re[16]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 27.01.09 13:46
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    C>>Геометрия Евклида — это вообще полная по Геделю теория, в ней ВСЕ задачи имеют решение. И для большинства задач они находятся элементарно — делаем аксиоматику, пишем начальное и конечное условие, и пытаемся построить вывод.

    CB>У меня закрадывается смутное подозрение, что ты над этой задачей никогда не задумывался. Или я не прав?
    Я по ней курсовую когда-то писал!!!

    Геометрические задачи _формально_ решаются двумя способами.

    Первый способ:
    1) Вводятся (с помощью аксиом) термины типа "лежит между", "соприкасается", "пересекает" и т.п.
    2) В этих терминах формулируется условие задачи. Никаких рисунков для этого не нужно.
    3) Делаем обычное доказательство по правилам вывода.

    Второй способ: аналитическая геометрия. Т.е. просто описываем всё в виде системы уравнений и решаем её. Для всех задач в чистой геометрии Евклида у нас гарантировано будет точное аналитическое решение получившейся системы уравнений.

    Когда я про это ещё в школе узнал, то я стал решать ВСЕ задачи по геометрии методом координат. Мне в итоге учительница запретила его использовать Правда, на олимпиаде я таки с помощью него первое место занял....

    C>>Например, здесь: http://pauillac.inria.fr/coq/

    CB>Ну, и зачем эта ссылка?
    Там есть пакеты аксиом для геометри Евклида.
    Sapienti sat!
    Re[17]: Несколько дурацких вопросов по теории информации
    От: nikov США http://www.linkedin.com/in/nikov
    Дата: 27.01.09 14:13
    Оценка:
    Здравствуйте, Cyberax, Вы писали:

    C>>>Например, здесь: http://pauillac.inria.fr/coq/

    CB>>Ну, и зачем эта ссылка?
    C>Там есть пакеты аксиом для геометри Евклида.

    Насколько я знаю, для достаточно сложных задач поиск решения существующими алгоритмами начинает занимать астрономическое время, хотя подготовленный школьник справится с ними за десятки минут.
    Re[18]: Несколько дурацких вопросов по теории информации
    От: Cyberax Марс  
    Дата: 27.01.09 14:23
    Оценка:
    Здравствуйте, nikov, Вы писали:

    C>>Там есть пакеты аксиом для геометри Евклида.

    N>Насколько я знаю, для достаточно сложных задач поиск решения существующими алгоритмами начинает занимать астрономическое время, хотя подготовленный школьник справится с ними за десятки минут.
    Это простые переборные алгоритмы не справляются, оно и понятно. Эвристические живут чуть лучше.
    Sapienti sat!
    Re[17]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 27.01.09 17:04
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    CB>>Есть замечательное рассуждение философа Джона Серля (John Searle), известное под названием "Китайская комната". Оно звучит, примерно, так. [...]


    V>Состоятельность этого рассуждения уже много раз оспорена. Даже Станислав Лем стукнул несчастного Джона Серля.


    Вспомнил, в чём заключается основное возражение против "китайского аргумента": системы отличаются от набора разрозненных элементов тем, что системы обладают свойством эмерджентности:

    Эмерджентность (англ. emergence — возникновение, появление нового) в теории систем — наличие у какой-либо системы особых свойств, не присущих её подсистемам и блокам, а также сумме элементов, не связанных особыми системообразующими связями; несводимость свойств системы к сумме свойств её компонент; синоним — «системный эффект».

    Т.е. ничего необычного нет в том, что в мысленном эксперименте ни человек, ни счёты, ни инструкция не умеют общаться по-китайски. По-китайски умеет общаться только система, состоящая из всех этих компонент.
    Re[18]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 28.01.09 07:48
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, Voblin, Вы писали:


    CB>>>Есть замечательное рассуждение философа Джона Серля (John Searle), известное под названием "Китайская комната". Оно звучит, примерно, так. [...]


    V>>Состоятельность этого рассуждения уже много раз оспорена. Даже Станислав Лем стукнул несчастного Джона Серля.


    V>Вспомнил, в чём заключается основное возражение против "китайского аргумента": системы отличаются от набора разрозненных элементов тем, что системы обладают свойством эмерджентности:

    V>

    Эмерджентность (англ. emergence — возникновение, появление нового) в теории систем — наличие у какой-либо системы особых свойств, не присущих её подсистемам и блокам, а также сумме элементов, не связанных особыми системообразующими связями; несводимость свойств системы к сумме свойств её компонент; синоним — «системный эффект».

    V>Т.е. ничего необычного нет в том, что в мысленном эксперименте ни человек, ни счёты, ни инструкция не умеют общаться по-китайски. По-китайски умеет общаться только система, состоящая из всех этих компонент.

    +1024
    Отлично! В самую суть!

    Так вот, ИМХО, что именно назвать системой и какие новые, не выводимые из суммы ее элементов, свойства ей приписать есть субъективный акт познавательной деятельности.

    Сравни свое определение «системного эффекта» с определением гештальта в психологии.

    Гештальт — психическая структура как целостное образование, состоящее из различных элементов, воспринимаемых не как простая их сумма, а как единое целое.

    Здесь
    Автор: craft-brother
    Дата: 26.01.09
    я описал пример гештальта: изображения зоны кратного покрытия земной поверхности навигационными спутниками, которое визуализировало системное свойство орбитальной группировки. Это изображение зажило в моем мозгу, как самостоятельный когнитивный объект со своими характеристиками: «рожками», «метастазами», «внутренними дырками», «скоростью деформации». Быстро пришло понимание того, что, чем меньше рожек, метастаз и дырок в начальной конфигурации, тем меньше их будет появляться при длительном наблюдении, чем более плавная динамика деформации, тем менее вероятны провалы в навигации в будующем. Для решения задачи оставалось только понять, что роднит «хорошие» орбитальные группировки навигационных спутников и, что отличает их от «плохих».

    По моим представлениям, человек может создавать подобные структура с новыми свойствами, а машина Тьюринга их вычислить никогда не сможет.
    Re[16]: Несколько дурацких вопросов по теории информации
    От: Sinclair Россия https://github.com/evilguest/
    Дата: 28.01.09 10:11
    Оценка:
    Здравствуйте, craft-brother, Вы писали:


    CB>Ну, меня учили, что уменьшение энтропии (неопределенности) есть мера информации, а не наоборот. Но, ИМХО, это глупость. Вот, например, скажи, где больше информации в теореме Пифагора или в законе Ома?

    Всё зависит от того, насколько они уменьшают неопределенность
    С точки зрения физики, ни то ни другое информацией не являются. Это как бы "непреложные" знания, доступные всем изначально.

    CB>Пусть мышление целиком и полностью является вычислением.


    CB>Предположим, компьютеру рассказали некую историю. Он ее понял, и теперь ведет осмысленное обсуждение этой истории с несколькими людьми. Но и люди, и машина — все говорят только на китайском языке. В той же комнате находится человек, который китайского не знает. Зато он умеет быстро-быстро двигать костяшки на счетах, точно воспроизводя все вычисления, которые делает компьютер при выслушивании, обдумывании и обсуждении истории. Спрашивается: поймет ли этот человек то же самое, что понял компьютер? Вряд ли. Но, если мышление целиком и полностью является вычислением, вроде бы должен был понять — ведь он выполнил нужные вычисления.


    CB>Значит, понимание не сводится к вычислению...

    Забавное рассуждение. Оно, как мне кажется, очень мало относится к мышлению.
    1. Не очень понятно, как именно человек может "точно воспроизводить все вычисления". У него есть какая-то таблица с формулами? Каким именно образом этот человек преобразует колебания воздуха, поступающие на вход, в цифровые данные для вычислений? Каким именно образом он формирует выходные колебания воздуха? Где хранится состояние, изменяемое в процессе общения? Без этих уточнений мысленный эксперимент не имеет никакой ценности.
    2. Допустим, мы ввели дополнительные предположения о том, как именно человек проводит эти вычисления, точно воспроизводящие результат компьютерного мышления. И в чем таки вопрос? В том, понял ли хоть что-то человек? Но ведь человек здесь является только частью комплекса. Есть костяшки счетов, есть "память", хранящая состояние, есть приборы преобразования звука в цифру и обратно.
    Всё вместе, очевидно, вполне "понимает" что происходит — и даже ведет осмысленную беседу. Человек в данном контексте не пользуется своим личным мышлением — он выполняет некую служебную функцию. С этой точки зрения, его роль примерно такая же, как у какой-нибудь мозговой жидкости. Ваша мозговая жидкость много понимает из нашей с вами дискуссии здесь?

    Поэтому никакого опровержения не получается. Увы.
    Уйдемте отсюда, Румата! У вас слишком богатые погреба.
    Re[2]: Несколько дурацких вопросов по теории информации
    От: Andrei F.  
    Дата: 28.01.09 11:35
    Оценка:
    Здравствуйте, Васильич, Вы писали:

    В>И еще одно наблюдение. Если оставить субъекта без источника информации — это не означает что его энтропия будет оставаться на постоянном уровне. Она будет постоянно повышаться.


    Ученого, который сидит запершись в кабинете и сосредоточенно придумывает новую теорию, это тоже касается? Или еще лучше. Если взять команду ученых, посадить на космический корабль с замкнутой системой жизнеобеспечения и отправить в путешествие на пару лет — можно ли считать, что суммарная "информационная энтропия" корабля будет только увеличиваться?

    Ну и еще, до кучи несколько вопросов.
    Сборников стихов — это информация?
    Книга по теории флогистона — это информация?
    А по теории относительности?
    А если завтра ученые объявят теорию относительности устаревшей?
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1111>>
    Re[15]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 28.01.09 13:34
    Оценка:
    Антон, а вот интересно было бы узнать твое понимание информации, с которым ты продвигаешь информационные технологии к светлому будущему.
    Не обязательно формальное, можно рабочее.
    Re[19]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 28.01.09 14:19
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>Так вот, ИМХО, что именно назвать системой и какие новые, не выводимые из суммы ее элементов, свойства ей приписать есть субъективный акт познавательной деятельности.

    CB>...
    CB>По моим представлениям, человек может создавать подобные структура с новыми свойствами, а машина Тьюринга их вычислить никогда не сможет.

    Чисто системное свойство эмерджентности проявляется повсеместно на любых масштабах. Химические свойства молекулы воды не являются суммой химических свойств водорода и кислорода. Отдельные частицы каждая сама по себе пространства не дырявят, но когда они слипаются в чёрную дыру, пространство рвётся.

    Даже если нет наблюдателя, который для образующейся системы и её свойств придумает словесное обозначение, сама система всё равно образуется и будет объективно существовать и иметь свойства.

    Что значит имя? Роза пахнет розой, хоть розой назови её, хоть нет...

    Re[20]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 28.01.09 14:26
    Оценка:
    Здравствуйте, Voblin, Вы писали:


    V>Чисто системное свойство эмерджентности проявляется повсеместно на любых масштабах. Химические свойства молекулы воды не являются суммой химических свойств водорода и кислорода. Отдельные частицы каждая сама по себе пространства не дырявят, но когда они слипаются в чёрную дыру, пространство рвётся.


    V>Даже если нет наблюдателя, который для образующейся системы и её свойств придумает словесное обозначение, сама система всё равно образуется и будет объективно существовать и иметь свойства.


    Когда я говорил про новые структуры и их свойства, я говорил про информационные объекты, а не про тот физический мир, который они (может быть) отражают.
    Re[21]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 28.01.09 15:06
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>Когда я говорил про новые структуры и их свойства, я говорил про информационные объекты, а не про тот физический мир, который они (может быть) отражают.


    А я уже здесь
    Автор: Voblin
    Дата: 23.01.09
    согласился с тем, что понятие "информация" (и "информационный объект" тоже) применимо только там, где есть мотивированное поведение, которое встречается только в живой природе и в создаваемых объектами живой природы артефактах.
    Re[15]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 28.01.09 16:09
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    S>Просто я уж было подумал, что есть какие-то серьезные исследования на тему моделирования работы правого полушария.


    О каком моделировании работы правого полушария можно говорить, если сейчас никому не понятен не только общий принцип работы мозга, но и принцип работы нейрона?

    С технической точки зрения мозг (не важно, человеческий или тараканий) — порождение безумного схемотехника-абстракциониста, который взял абы какие детальки, соединил из абы как, получил невесть что, и оно заработало.

    Среди физиологов даже нет единого мнения относительно того, функцией чего является сознание. Например, Наталья Петровна Бехтерева серьёзно верила в существование души.

    Кроме того, я не очень понимаю, что в данном контексте можно понимать под термином "моделирование". Моделирование ядерного взрыва — это я понимаю. Моделирование атмосферных процессов — тоже. Как определить критерий соответствия модели моделируемому объекту? Похожесть проявлений? Тогда в некотором смысле собачка Aibo тоже является моделью собаки, хотя только очень наивный человек может найти некую внутреннюю общность этих двух объектов.
    Re[3]: Несколько дурацких вопросов по теории информации
    От: Константин Л. Франция  
    Дата: 01.02.09 01:21
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    []

    V>Вероятность — такая странная штука, что применять её надо осторожно. Например считается, что если вероятность события стремится к нулю (т.е. меньше любого наперёд заданного e), то событие не случается. А вот и нет. Случаются, притом постоянно. Простой пример. Представим себе горизонтальную плоскость, представим себе идеально круглый шар. Количество точек на поверхности шара — бесконечно. Вероятность того, что шар приземлится на какую-то конкретную точку — единица, делённая на бесконечность. И так для всех точек. Бросаем шар, и он (о чудо!) приземляется на точку, вероятность приземления на которую ещё недавно была равна нулю. Вообще считается, что измерять вероятность уже произошедшего события — некорректно.


    боюсь , ты тут путаешь "вероятность, что приземлится на конкретную" и "вероятность, что приземлится на какую-то"

    []
    Re: Несколько дурацких вопросов по теории информации
    От: Константин Л. Франция  
    Дата: 01.02.09 02:28
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    []

    Информация есть знание. Сама информация никак не передается. Она есть результат преобразования взаимодействия (электро-магнитного тп). Появляется ли информация ниоткуда? Скорее нет. Является ли свет для веточки информацией — скорее нет, тк в результате веточка не получает знание, а лишь рефлексирует. Имхо, важная отличительная черта информации — возможность её накопления.

    V>Может быть, "информация" — это целиком и полностью искусственное понятие, и рассуждать о его свойствах — это не многим лучше чем спорить о количестве демонов, помещающихся на кончике иглы? Однако, похоже, что сама суть понятия "информация" прошита куда-то вглубь структуры пространства-времени:

    V>1. Есть мнение, что скорость света в вакууме ограничена именно скоростью распространения информации. Если бы информация распространялась мгновенно, изменение электрического поля по известным уравнениям Максвелла мгновенно порождало бы изменение магнитного поля во всей Вселенной, и никаких электромагнитных волн не возникало бы в принципе.

    информация не распространяется, распространяется лишь свет

    V>2. Что бы нам ни говорили полубезумные провидцы, ось времени, по которой мы все путешествуем — это именно тот вектор, по которому движется информация. И в обратную сторону не ходит. По крайней мере, в воспроизводимых экспериментах.


    тут все зависит от того, есть ли объективная информация, или существует только субъективная. если 2-е, то она не может двигаться туда, где нас уже нет — в прошлое. объективная информация, ясное дело, ни от какого времени не зависит и никуда не движется

    V>Оставаясь в рамках позитивной науки, можно с некоторой долей уверенности выделить следующие свойства информации:

    V>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии. Если это принять, то все паранаучные рассуждения об информационном поле, глобальном информационном континууме и прочая муть сразу становятся ложными. Более того, фраза "В начале было Слово" сразу порождает еретический вопрос: "На чём было записано это Слово?".

    не факт

    V>2. Из точки А информация не может поступить в точку Б если между ними нет информационного канала. Если принять п.1, то это должен быть перенос либо вещества, либо энергии. Т.е. прорицатель должен принимать вещество или энергию, движущиеся в обратном направлении по оси времени.


    не забываем, что информация имеет свойство рождаться сама по себе, без конкретного взаимодействия, привязанного к данному моменту. Кроме того, считаю неправильным попытку привязать вещество или энергию ко времени.

    V>Какие ещё у информации есть свойства? Что на эту тему можно вкурить?


    ганжа
    V>P.S. Только попробуйте сказать, что это не имеет отношения к философии программирования!
    Re[17]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 02.02.09 12:28
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    S>Здравствуйте, craft-brother, Вы писали:


    CB>>Не обязательно формальное, можно рабочее.

    S>Рабочее — примерно такое: информация — это данные с некоторой семантикой.
    S>При этом семантика не обязательно должна существовать в мозгу хомо сапиенса.
    S>К примеру, набор бит в заголовке IP пакета является данными с точки зрения протокола Ethernet, но как только их читает роутер, они мгновенно становятся информацией о происхождении пакета и месте назначения. Сопоставляя их с информацией о локальной топологии сети, роутер принимает решение своих действиях.

    ОК. Данные переносят информацию (семантику) – это так, но, ИМХО, в роутере данные не становятся информацией. Роутер преобразует поученные данные в соответствие со своим алгоритмом и состоянием и отправляет их дальше, а также м.б. изменяет свое состояние. Роутер ничего не знает о семантике, но о семантике очень хорошо знал программист, который писал алгоритм для этого роутера.

    Для меня роутер, с точки зрения информатики, ничем не отличается от предохранителя в электрической сети (ну может чуть посложней). Предохранитель, принимая на вход запредельное напряжение, тупо отрабатывает свой алгоритм – перегорает, и никакого преобразования сигнала (данных) в смысл не происходит. А семантика (понимание что означает происшедшее) появится у электрика, который придет разбираться с отсутствием электричества.

    Лично я себя убедил в том, что М. ВОЛЬКЕНШТЕЙН (физик, чл.-корр. АН СССР) прав, когда говорит, что

    «Логика без интуиции не создает новой информации, но лишь выявляет информацию, уже содержащуюся в исходных положениях. Можно «поверить алгеброй гармонию», но нельзя эту гармонию создать, то есть извлечь из окружающего мира. Без интуиции нет творчества». (с)"Красота науки" "Наука и жизнь", №9, 1988.



    И еще одна цитата. Свои аргументы, к сожалению, закончились


    «Оказалось, что знания в машине автоматически превращаются в ДАННЫЕ. […]В жизни учебник или энциклопедия становятся знаниями, когда к ним прикладывается голова. А перед ИИ стояла задача — получить знания без головы». (с) А.Соловьев «ИШКУШШТВЕННЫЙ ИНТЕЛЛЕКТ».



    ЗЫ. Калькулятор никогда мыслить не будет. А где нет мысли, нет и информации, а есть только данные.
    Re[4]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 02.02.09 14:55
    Оценка:
    Здравствуйте, Константин Л., Вы писали:

    V>>[...] Бросаем шар, и он (о чудо!) приземляется на точку, вероятность приземления на которую ещё недавно была равна нулю. Вообще считается, что измерять вероятность уже произошедшего события — некорректно.


    КЛ>боюсь , ты тут путаешь "вероятность, что приземлится на конкретную" и "вероятность, что приземлится на какую-то"


    Sorry, но я ничего не перепутал. Всё корректно!

    Вероятность выигрыша в завтрашнюю лотерею можно посчитать, а вероятность выигрыша во вчерашнюю — либо ноль, либо единица. Независимо от того, узнали мы её результат или нет.
    Re[2]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 02.02.09 15:53
    Оценка:
    Здравствуйте, Константин Л., Вы писали:

    КЛ>Информация есть знание. Сама информация никак не передается. Она есть результат преобразования взаимодействия (электро-магнитного тп).


    Тогда что такое знание? Знание — сила? Сила — масса, умноженная на ускорение?

    - Папа, что такое чистоплотность?
    — Это чисто масса, делённая на чисто объём.

    КЛ>Сама информация никак не передается.

    Вообще не понял. Это про то, что для переноса информации нужно взаимодействие? Так мы уже здесь выяснили, что нет.
    Или про то, что сама себя она никуда не передаёт?

    КЛ>Она есть результат преобразования взаимодействия (электро-магнитного тп).


    Масса и энергия ни во что не преобразовываются кроме массы и энергии. Согласно закону сохранения массы-энергии.

    КЛ>Появляется ли информация ниоткуда? Скорее нет. Является ли свет для веточки информацией — скорее нет, тк в результате веточка не получает знание, а лишь рефлексирует.


    А мы, типа, совсем не рефлексируем?

    КЛ>Имхо, важная отличительная черта информации — возможность её накопления.


    Накопление информации — это её передача из прошлого в будущее.

    КЛ>тут все зависит от того, есть ли объективная информация, или существует только субъективная. если 2-е, то она не может двигаться туда, где нас уже нет — в прошлое. объективная информация, ясное дело, ни от какого времени не зависит и никуда не движется


    Что такое объективная информация в этом контексте — не понимаю.

    КЛ>не забываем, что информация имеет свойство рождаться сама по себе, без конкретного взаимодействия, привязанного к данному моменту. Кроме того, считаю неправильным попытку привязать вещество или энергию ко времени.


    Поподробнее, если можно.

    V>>Какие ещё у информации есть свойства? Что на эту тему можно вкурить?

    КЛ>ганжа

    Некоторые также любят искать истину на дне бутылки. Но её там нет. Это, правда, "искателя" уже обычно не расстраивает.
    Re[3]: Несколько дурацких вопросов по теории информации
    От: Константин Л. Франция  
    Дата: 02.02.09 16:09
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, Константин Л., Вы писали:


    КЛ>>Информация есть знание. Сама информация никак не передается. Она есть результат преобразования взаимодействия (электро-магнитного тп).


    V>Тогда что такое знание? Знание — сила? Сила — масса, умноженная на ускорение?

    V>

    - Папа, что такое чистоплотность?
    V>- Это чисто масса, делённая на чисто объём.

    КЛ>>Сама информация никак не передается.

    V>Вообще не понял. Это про то, что для переноса информации нужно взаимодействие? Так мы уже здесь выяснили, что нет.

    V>Или про то, что сама себя она никуда не передаёт?

    Кто выяснил, где выяснил?

    КЛ>>Она есть результат преобразования взаимодействия (электро-магнитного тп).


    V>Масса и энергия ни во что не преобразовываются кроме массы и энергии. Согласно закону сохранения массы-энергии.


    опа, ниже

    КЛ>>Появляется ли информация ниоткуда? Скорее нет. Является ли свет для веточки информацией — скорее нет, тк в результате веточка не получает знание, а лишь рефлексирует.


    V>А мы, типа, совсем не рефлексируем?


    не только

    КЛ>>Имхо, важная отличительная черта информации — возможность её накопления.


    V>Накопление информации — это её передача из прошлого в будущее.


    допустим

    КЛ>>тут все зависит от того, есть ли объективная информация, или существует только субъективная. если 2-е, то она не может двигаться туда, где нас уже нет — в прошлое. объективная информация, ясное дело, ни от какого времени не зависит и никуда не движется


    V>Что такое объективная информация в этом контексте — не понимаю.


    эмм... общее знание без носителя

    КЛ>>не забываем, что информация имеет свойство рождаться сама по себе, без конкретного взаимодействия, привязанного к данному моменту. Кроме того, считаю неправильным попытку привязать вещество или энергию ко времени.


    V>Поподробнее, если можно.


    ну информация может рождаться в рез-те мыслительного процесса

    V>>>Какие ещё у информации есть свойства? Что на эту тему можно вкурить?

    КЛ>>ганжа

    V>Некоторые также любят искать истину на дне бутылки. Но её там нет. Это, правда, "искателя" уже обычно не расстраивает.


    нууу, вот Дон Хуан спокойно себе постигал с помощью кой-чего необычного, и ничего. Хотя тут он, бесспорно, не авторитет

    ПС: Меня немного удивляет твоя попытка одновременно посмотреть на информацию с точки зрения только физики, а потом попытаться приплести философию. Причем это нормально, если бы только ты был последователен, и не отметал философию в одних аспектах, и наваливался на нее в других. Надеюсь я более-менее понятно выразился
    Re[4]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 03.02.09 15:32
    Оценка:
    Здравствуйте, Константин Л., Вы писали:

    V>>Это про то, что для переноса информации нужно взаимодействие? Так мы уже здесь выяснили, что нет.

    КЛ>Кто выяснил, где выяснил?

    Это я про то, что отсутствие ожидаемого взаимодействия тоже несёт в себе информацию. Другими словами: данные кодируются не только единицами, но и нулями.

    V>>А мы, типа, совсем не рефлексируем?

    КЛ>не только

    Вопрос веры. Не обсуждается.

    V>>Что такое объективная информация в этом контексте — не понимаю.

    КЛ>эмм... общее знание без носителя

    Это как?

    КЛ>ну информация может рождаться в рез-те мыслительного процесса


    В результате обработки информации её количество не может увеличиваться.

    КЛ>ПС: Меня немного удивляет твоя попытка одновременно посмотреть на информацию с точки зрения только физики, а потом попытаться приплести философию. Причем это нормально, если бы только ты был последователен, и не отметал философию в одних аспектах, и наваливался на нее в других. Надеюсь я более-менее понятно выразился


    Сходить в физику в любом случае было полезно. Но физика занимается веществом и энергией, а информация, как известно, ни тем ни другим не является.
    Re[5]: Несколько дурацких вопросов по теории информации
    От: D. Mon Великобритания http://thedeemon.livejournal.com
    Дата: 04.02.09 02:31
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    КЛ>>ну информация может рождаться в рез-те мыслительного процесса


    V>В результате обработки информации её количество не может увеличиваться.


    Тут вспоминается один прием в сжатии данных. Есть семейство алгоритмов, где компрессор строит некую статистическую модель данных, которую использует для предсказания очередного символа, и чем более вероятен (ожидаем, предсказуем) кодируемый символ, тем меньше бит нужно на его кодирование, за счет этого и сжатие. Т.е. чем лучше модель, тем больше у нас информации о данных, тем меньше уменьшение неопределенности при кодировании одного символа, меньше информации в этом символе для компрессора. Так вот, прием тот называется SSE — secondary symbol estimation. Его суть в том, что к модели добавляется еще одна поменьше, которая оценивает, насколько хорошо первая модель предсказывает данные. Она видит, где первая модель дает плохие оценки, и корректирует их согласно своей статистике. Что важно — никаких новых входных данных не используется, а есть просто более сложный "мыслительный процесс" и более сложная обработка информации. Результатом применения этого приема является более хорошее сжатие, т.е. в среднем при кодировании символа компрессор знает о нем больше, обладает большей информацией. Получается, как бы, что именно обработка имеющейся информации (и даже интроспекция) позволила увеличить количество имеющейся у компрессора информации о данных. Процесс совершенно математический и выражающийся в цифрах.
    Re[5]: Несколько дурацких вопросов по теории информации
    От: Константин Л. Франция  
    Дата: 04.02.09 07:41
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, Константин Л., Вы писали:


    V>>>Это про то, что для переноса информации нужно взаимодействие? Так мы уже здесь выяснили, что нет.

    КЛ>>Кто выяснил, где выяснил?

    V>Это я про то, что отсутствие ожидаемого взаимодействия тоже несёт в себе информацию. Другими словами: данные кодируются не только единицами, но и нулями.


    отсутствие — частный случай присутствия

    V>>>А мы, типа, совсем не рефлексируем?

    КЛ>>не только

    V>Вопрос веры. Не обсуждается.


    V>>>Что такое объективная информация в этом контексте — не понимаю.

    КЛ>>эмм... общее знание без носителя

    V>Это как?


    КЛ>>ну информация может рождаться в рез-те мыслительного процесса


    V>В результате обработки информации её количество не может увеличиваться.


    может

    КЛ>>ПС: Меня немного удивляет твоя попытка одновременно посмотреть на информацию с точки зрения только физики, а потом попытаться приплести философию. Причем это нормально, если бы только ты был последователен, и не отметал философию в одних аспектах, и наваливался на нее в других. Надеюсь я более-менее понятно выразился


    V>Сходить в физику в любом случае было полезно. Но физика занимается веществом и энергией, а информация, как известно, ни тем ни другим не является.


    я о том, что ты задаешь несколько разных вопросов и пытаешься найти ответы на них или только в физике, или только в философии. тут надо комплексно
    Re[19]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 05.02.09 08:17
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    CB>>ЗЫ. Калькулятор никогда мыслить не будет. А где нет мысли, нет и информации, а есть только данные.

    S>Такое определение информации имеет право на жизнь, но лично мне оно не нравится:

    S>1. Оно субъективно. Потому как в основу определения положена еще одна мифологическая конструкция "мышление". То есть ситуация полностью изоморфна рассуждениям о душе. Я лично считаю бредом любые рассуждения о свойствах чего-либо, которые с одной стороны — суперважны, а с другой стороны — неизмеримы и неопределимы.


    S>2. Оно неконструктивно. То есть на его основе никаких полезных рассуждений построить нельзя. К примеру, никаких "информационных технологий" быть в принципе не может, т.к. информации вне головы не существует.


    S>Ну и нахрена нам такое определение, с которым ничего полезного сделать нельзя? Положить на полку и спокойно заняться обработкой "данных"?


    А вот тут-то собака и зарылась.

    Основная проблема сегодняшнего программостроения в том, что имеется пропасть между описанием концептуальной модели предметной области и реализацией этой модели на императивных ЯП. Самое лучшее из того, что мы придумали, это описание сценариев использования на естественном языке.

    Суть проблемы заключается в том, что «никто не знает, каким местом человек думает, и как он этим местом это делает» ((с) А.Соловьев). Снобистское отношение технарей к психологии (да, это наука о душе: греч. psyche — душа, logos — учение, наука, слово, — нравится тебе это или нет) только усугубляет проблему. Рассматривая информацию только, как данные и алгоритмы мы сильно ограничиваем себя, поскольку мышление человека к этому не сводится.

    Мой конструктив заключается в следующем: если мы поймем, как человек строит свои ментальные модели мира, нам будет проще найти адекватный язык для их объективизации. Ты против этого возражаешь?
    Re[18]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 05.02.09 08:37
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>ЗЫ. Калькулятор никогда мыслить не будет. А где нет мысли, нет и информации, а есть только данные.


    Где-то я уже это слышал: "Мащина думать нэ может!"

    Хотелось бы немножко прояснить такой момент. Чем отличаются понятия "информация" и "данные"? Не являются ли они словами-синонимами? Если нет, то в чём существенное отличие?
    Re[20]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 05.02.09 09:58
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>Основная проблема сегодняшнего программостроения в том, что имеется пропасть между описанием концептуальной модели предметной области и реализацией этой модели на императивных ЯП. Самое лучшее из того, что мы придумали, это описание сценариев использования на естественном языке.


    Всё так. Несмотря на то, что "самые лучшие" методики описания предметных областей появляются непрерывно (и даже некоторые из них приобретают статус стандартов), когда дело доходит до дела, мы просто пишем "сказку" на естественном языке, и это оказывается самым эффективным решением.

    CB>Суть проблемы заключается в том, что «никто не знает, каким местом человек думает, и как он этим местом это делает» ((с) А.Соловьев).


    Есть различные подходы к этой проблеме. Есть также мнение, что сама постановка вопроса является некорректной.
    В самом деле, каким местом компьютер показывает мне сайт RSDN? Монитором? Нет, он только электрический сигнал преобразует в видимый свет. Видеокартой? Процессором? Памятью? Сетевухой? Несмотря на то, что весь процесс показа сайта рукотворен, понятен и задокументирован, ответ на этот, казалось бы, простой вопрос не существует.

    CB>Рассматривая информацию только, как данные и алгоритмы мы сильно ограничиваем себя, поскольку мышление человека к этому не сводится.


    Трудно спорить пока нет убедительного ответа на вопрос, к чему оно сводится.

    CB>Мой конструктив заключается в следующем: если мы поймем, как человек строит свои ментальные модели мира, нам будет проще найти адекватный язык для их объективизации. Ты против этого возражаешь?


    Боюсь, что даже когда мы это поймём (а в этом лично я нисколько не сомневаюсь), проблема создания "адекватного языка для объективизации" всё равно окажется не решённой. Может случится так, что получив ответ на "главный вопрос", мы получим доказательство того, что такой язык в принципе невозможен. Не знаю...
    Re[19]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 05.02.09 10:38
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, craft-brother, Вы писали:


    CB>>ЗЫ. Калькулятор никогда мыслить не будет. А где нет мысли, нет и информации, а есть только данные.


    V>Где-то я уже это слышал: "Мащина думать нэ может!"


    V>Хотелось бы немножко прояснить такой момент. Чем отличаются понятия "информация" и "данные"? Не являются ли они словами-синонимами? Если нет, то в чём существенное отличие?


    Уже писал здесь
    Автор: craft-brother
    Дата: 21.01.09
    Re[20]: Несколько дурацких вопросов по теории информации
    От: Sinclair Россия https://github.com/evilguest/
    Дата: 05.02.09 11:05
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>А вот тут-то собака и зарылась.


    CB>Основная проблема сегодняшнего программостроения в том, что имеется пропасть между описанием концептуальной модели предметной области и реализацией этой модели на императивных ЯП. Самое лучшее из того, что мы придумали, это описание сценариев использования на естественном языке.

    Не вижу никакой особенной проблемы. С тем же успехом можно сказать, что имеется пропасть между описанием концептуальной модели дизайна интерьера и строительными чертежами на языке ЕСКД. Это пропасть между знанием и незнанием, между задачей и решением.

    CB>Суть проблемы заключается в том, что «никто не знает, каким местом человек думает, и как он этим местом это делает» ((с) А.Соловьев). Снобистское отношение технарей к психологии (да, это наука о душе: греч. psyche — душа, logos — учение, наука, слово, — нравится тебе это или нет) только усугубляет проблему.

    Какую проблему?
    CB>Рассматривая информацию только, как данные и алгоритмы мы сильно ограничиваем себя, поскольку мышление человека к этому не сводится.
    Если под "мышлением" подразумевается высшая нервная деятельность en masse, то наверное да. Ну просто перед индустрией пока что не ставилась задача воспроизвести недостатки человеческой нервной деятельности.
    Например, влияние эмоций на принимаемые решения, невоспроизводимость результатов, ошибки и так далее. Нас интересует Artificial intelligence, а не Artificial stupidity. Её нам и естественной хватает с избытком.

    CB>Мой конструктив заключается в следующем: если мы поймем, как человек строит свои ментальные модели мира, нам будет проще найти адекватный язык для их объективизации. Ты против этого возражаешь?


    В одной фразе неявно сделано очень много предположений. Таким языком обычно разговаривают люди типа свидетелей Иеговы (разве не очевидно, что столь красивый дом, как планета Земля не мог появиться без замысла создателя?).

    Я пока что еще не уверен, что сама задача объективизации ментальных моделей мира достаточно важна. Я не уверен, что ее сложность связана с отсутствием языка или с неадекватностью существующего языка.

    На всякий случай поясню, что "немашинные" свойства человеческого мышления для меня интересны не в контексте их алгоритмизации, а в контексте человеко-машинного взаимодействия вообще и usability в частности.
    Уйдемте отсюда, Румата! У вас слишком богатые погреба.
    Re[21]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 05.02.09 11:13
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Боюсь, что даже когда мы это поймём (а в этом лично я нисколько не сомневаюсь), проблема создания "адекватного языка для объективизации" всё равно окажется не решённой. Может случится так, что получив ответ на "главный вопрос", мы получим доказательство того, что такой язык в принципе невозможен. Не знаю...


    Хочется верить в лучшее...

    Почему?

    Во-первых. Один язык для представления наших мыслей у нас уже есть – естественный язык.

    Во-вторых. Есть исключительно эффективный и универсальный язык, описывающий деятельность левого полушария мозга – логика и математика. И мы научили компьютер на нем работать.

    В-третьих. Есть язык искусства, который плохо ли, хорошо, но как-то объективизирует деятельность нашего подсознательного.

    PS. Вот мне непонятно, в чем, с точки зрения эволюции, историческая логика того, что человечество в большинстве своем вдруг перестало излагать свои мысли иероглифами, которые передавали ее целиком, и стало писать буквами и словами, моделируя устную речь. Например, объем китайских словарей всего 6000-8000 иероглифов. А популярный толковый словарь русского языка содержит в 10 раз больше слов. А смысл?
    Re[21]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 05.02.09 11:23
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    S>Не вижу никакой особенной проблемы.


    [...]

    S>Какую проблему?


    ОК, Антон, если ты не возражаешь, я больше не буду пытаться ответить на вопрос, которого у тебя нет. ИМХО, это дело бесполезное…

    Успехов!
    Re[20]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 05.02.09 12:53
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>Уже писал здесь
    Автор: craft-brother
    Дата: 21.01.09


    ОК. Разделяем понятия "информация" и "данные". Но поскольку и то, и другое имеет ряд общих свойств (и то, и другое не является ни веществом, ни энергией; и то, и другое может быть получено, накоплено, передано через канал связи; ...), то должно быть какое-то обобщающее понятие, охватывающее обе эти сущности. Какое? "Информация"?

    Если это таки разные понятия, то они легко преобразуются друг в друга. Например, так:
    Информация ->    данные   ->   данные    ->   данные    -> информация
    (человек 1)  (компьютер 1)  (канал связи)  (компьютер 2)   (человек 2)

    Тем более нужно обобщающее понятие!
    Re[22]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 00:07
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Та информация, которая рассматривается в теории информации — штука весьма объективная со всем ее содержанием. Твоя интерпретация этого содержимого — субъективна.


    С "субъективной" т.з. термин "информация" связан с процессом накопления/обмена знаниями, х.з. зачем в термодинамике использовали этот же термин. (Субъективно/объективно — как-то несерьёзно)

    Для двух этих понятий надо было придумать два разных термина. Вернее, для "объективного" его значения, ибо "субъективное" толкование существовало тысячелетия.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[18]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 00:48
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Есть масса способов перейти от аналогового к цифровому миру. См., к примеру, преобразование Фурье


    И где тут "цифры"? Тоже аналоговая ф-ия.

    Для дискретного преобразования Фурье требуется предварительная дискретизация, а это уже к Найквисту со всеми ограничениями и прочими рамками.

    И вообще, в цифровом виде преобразование Фурье теряет всё что можно, вырождаясь в конечную систему свёрток. ХЗ почему название "Фурье" оставили, при переводе обратно в "аналог" так и остаётся система свёрток, вместо получения исходного интеграла Фурье.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[24]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 00:48
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Пример аналогового преобразования, которое можно выполнять и в цифровом виде. Математика для перехода от одного к другому имеется.


    А бывает аналоговое преобразование Фурье в виде схемы?
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[22]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 00:48
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>В десятый раз повторяю — абсолютная точность невозможна и в аналоговых вычислениях.


    Аналоговые вычисления производили не из-за точности (она потенциально хуже, и идеальные ОУ ничего не спасут, т.к. интегрирование на банальном конденсаторе происходит, чья ёмкость и точки утечки скачут от температуры), а из-за непрерывности во времени (читай из-за быстродействия). Последние годы явно неактуально.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[21]: Несколько дурацких вопросов по теории информации
    От: craft-brother Россия  
    Дата: 06.02.09 05:31
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Если это таки разные понятия, то они легко преобразуются друг в друга. Например, так:

    V>
    Информация ->    данные   ->   данные    ->   данные    -> информация
    V>(человек 1)  (компьютер 1)  (канал связи)  (компьютер 2)   (человек 2)


    В схеме, ИМХО, упущено два важных момента.

    1) На выходе у человека 1 есть «передатчик», который переводит его мысль на язык данных. Многие люди имеют большие знания но сформулировать их не могут…

    2) На входе у человека 2 есть «приемник», который извлекает из данных информацию. Свисток для собаки Павлова – приглашение к обеду, а для милиционера – призыв на помощь.

    Для меня приемник/передатчик самое темное место в этой цепочке.

    V>Тем более нужно обобщающее понятие!


    Почему сразу обобщать? Информация и так обобщена, дальше некуда. Чуть ли не первооснова Вселенной! Науке известны два метода: синтез и анализ. Мы пока еще не завершили стадию анализа. Поэтому все, что можно разделить, стоит разделять.
    Re[23]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 08:19
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V> х.з. зачем в термодинамике использовали этот же термин.


    А его там и не использовали, там использовали термин энтропия. А термин информации использовали в теории информации, а это все таки не термодинамика.

    V> (Субъективно/объективно — как-то несерьёзно)


    Как раз таки очень даже серьезно и корень большинства непоняток в топикпе.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[25]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 08:19
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V>А бывает аналоговое преобразование Фурье в виде схемы?


    Схемы чего?
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[23]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 08:19
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V>а из-за непрерывности во времени


    Что значит "непрерывности во времени"?

    V> (читай из-за быстродействия)


    Быстродействие (и латентность) аналоговых вычислителей точно так же ограничена переходными процессами в цепях. Изменение сигнала на выходе при изменении сигнала на входе происходит далеко не мгновенно.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[24]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 12:11
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    V>>а из-за непрерывности во времени


    AVK>Что значит "непрерывности во времени"?


    V>> (читай из-за быстродействия)


    AVK>Быстродействие (и латентность) аналоговых вычислителей точно так же ограничена переходными процессами в цепях. Изменение сигнала на выходе при изменении сигнала на входе происходит далеко не мгновенно.


    Хотел начать объяснять ответ на первый вопрос, но сам же всё знаешь, как видно из второго вопроса. Замечание только в том, что основные переходные процессы в случае ПИД не паразитные, а именно являются частью алгоритма расчёта, т.е. для цифрового варианта всё точно так же. Основная мини-операция большинства расчётов (что на направление цели, что на скорость, что на классификацию) — это реал-тайм интегрирование результатов свёрток, т.е. ФНЧ некоего порядка с неким Т(тау). Так что, разве что для дифференциальных блоков это более критично.

    В общем, для некоей системы управления (напр. схемы слежения за целью — наиболее популярная область аналоговых вычислений в своё время), некое время реакции должно быть максимально близко к расчётной T схемы. Для цифровых вычислений лет 40 назад и еще долгое время это было невозможно. Если же заостряться на доп. паразитных переходных процессах, то тут такой аргумент, что долгое время на любой элементной базе переходной процесс фронта сигнала от 0 к 1 явно был быстрее, чем тысячи тактов цифрового процессора (т.е. точно таких же переходных процессов в обе стороны 0-1-0). Цифровые вычисления добавляли весьма ощутимые задержки к собственным расчётным T системы. Не зря первые реалтаймовые цифровые вычислители были на небольших вычислительных ячейках построены, каждый из которых гонял циклы длиной в единицы-пару десятков операций максимум (откуда и пошли сигнальные процы).

    Почему считаю, что сейчас неактально? Из-за всяких L1/L2/L(i), т.к. переходные процессы в выч. системах разделились на "внешние" и "внутренние", внутренняя частота вычисляющих ядер может быть на порядки выше граничной максимальной частоты периферийных портов, что практически нивелирует доп. задержки на расчёты.

    --------
    Тем не менее, то ли медленно в военку вводятся новейшие разработки в области процессоров, то ли еще что, но современные цифровые компы (на кораблях) расчитывают целеуказания не намного быстрее, чем аналоговые в своё время (хотя точнее, и по множеству целей). Потому, ИМХО, низколетящие на скорости 3М ПКР и являются пока что грозным оружием, что от момента появления из-за горизонта до встречи с целью 6 сек примерно проходит, а половину из этих 6 сек требуется для расчётов.
    Примечательно еще то, что после испытаний америкосами купленных "москитов", предложенная мера борьбы со "стаей" ракет заключалась в установке вместо одного расчётного модуля (как сейчас), 3-4 их штуки с согласовваным расчётом целей, чтобы каждый модуль считал свою цель. Ибо сейчас все компьютеры группы кораблей независимо набрасываются на первую же цель, а две ракеты полностью насыщают электронику группы кораблей произвольного размера.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[26]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 12:11
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    V>>А бывает аналоговое преобразование Фурье в виде схемы?


    AVK>Схемы чего?


    Ну, обсуждалась же возможность замены аналоговых расчётов цифровыми.
    Я вот разве что могу дискретное преобразование фурье на аналоговых элементах посчитать, а исходную непрерывную аналитическую ф-ию — даже не представляю как.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[22]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 06.02.09 12:50
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>1) На выходе у человека 1 есть «передатчик», который переводит его мысль на язык данных. ...

    CB>2) На входе у человека 2 есть «приемник», который извлекает из данных информацию. ...
    CB>Для меня приемник/передатчик самое темное место в этой цепочке.

    Мне, практикующему специалисту по автоматизированным системам управления, такое разделение обсуждаемого понятия на информацию и данные вообще кажется бессмысленным. Тем более бессмысленным кажется "затемнение" понятий приёмник и передатчик. И вот почему.

    Автоматизированные системы — это такие системы, в состав которых в качестве подсистем включаются и технические средства, и люди. Бывает даже так, что в качестве подсистем включаются группы людей (есть такие понятия как "Групповая работа", "коллегиальное решение", "кворум").

    В средненькой такой автоматизированной системе могут быть тысячи связанных в причудливый клубок информационных потоков следующих видов:
    1. Человек -> машина ("передатчик"?)
    2. Машина -> машина
    3. Машина -> человек ("приёмник"?)
    4. Человек -> человек
    При этом, я подозреваю, в качестве "машины" может выступать и компьютер с базой данных, и амбарная книга, и доска объявлений, и какой-нибудь железный механизм.

    Если мы при проектировании системы вместо проектирования единого информационного потока будем заниматься отдельно информацией, и отдельно данными, то мы поимеем страшный геморрой. У нас порвётся половина обратных связей! Рассмотрение информационной системы как единого целого становится просто невозможным. Game over.

    В области автоматизированных систем только понятия информация и данные являются синонимами. И спорить с этим не только бессмысленно, но и деструктивно.

    Вы скажете, что автоматизированные системы — это довольно узкая область? Отнюдь. Автоматизированной системой является не только программка складского учёта, но и:
  • система государственного управления;
  • мировая финансовая система (ныне глючащая);
  • продовольственный магазин;
  • сайт RSDN;
  • движущееся транспортное средство (мы говорим, что при переходе дороги мы пропускаем несущиеся машины, хотя, на самом деле, машина видит нас глазами её водителя, и принимает решения его мозгом).

    Да, чуть не забыл ещё одно свойство информации, которое можно добавить в список свойств в корневой топик:
    3. Информационный процесс инвариантен относительно способа его реализации. Если, конечно, способ реализации выбран корректно и процесс не вышел за заданные ограничения. (сейчас кто-нибудь предложит поискать человека в источнике ограничений, но, уверяю вас, это зря)

    Именно это свойство информации и породило то, что сейчас мы называем IT. Если бы JPG-файл нёс нам не ту же информацию, что и классическая фотография, цифровое фото вообще бы не возникло.

    Ни суть, ни результат внесения ста рублей на мобильник не зависит от того, заплатили мы через девушку, сидящую в ларьке, или запихнули свой стольник в платёжный терминал.
  • Re[24]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 13:10
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>А его там и не использовали, там использовали термин энтропия.


    Ага, который опирается на термин сведений или различимых состояний (более точно — интересующе-различимых состояний, пока держим в уме это важное замечание).

    Загвоздка в том, в классическом определении энтропии не дано определение термину "сведения", которое ИМХО, весьма субъективно, отсюда я склонен относить конкретную энтропию чего-либо так же к субъективным понятиям. Например, есть энтропия из квантовой электродинамики, есть в термодинамике (в квантовой в т.ч.), есть в химии, есть в алгоритмической теории информации. Абстрактно энтропия обозначает одно и то же, а по факту — некая оценка в заданном масштабе интересующих подробностей, т.е. всегда субъективно на любом уровне подробностей хотя бы из-за факта субъективности выбора самого уровня.


    V>> (Субъективно/объективно — как-то несерьёзно)


    AVK>Как раз таки очень даже серьезно и корень большинства непоняток в топикпе.


    Имел ввиду, что несерьёзность в том, что невозможно формализовать — где кончается объективность и начинается субъективность. Объективность — это, ИМХО, некий независимо от нас существующий "абсолют", а по факту он упирается в наше представление о мироздании, которое изначально субъективно, хотя бы потому, что постоянно меняется/уточняется со временем (а мы склюнны собственно текущее состоянее наших знаний о мире и считать за некую "объективность", за неимением лучшего). Вот такие каламбуры.

    Потому и может "А.С.Пушкин. Повести Грелкина." являться и не являться информацией одновременно, вовсе не из-за субъективности (субъективно всё и всегда, коль субъективно наше представление о мироздании), а из-за выбора единицы измерения информации — "сведение". Вот, собсно, фундаментальная вещь, формулировка которой выходит за рамки теории информации, ибо сама теория на ней построена, и применима, заметь, к произвольному базису сведений (напомню про энтропию в термодинамике, квантовой термодинамике, химии и т.д., разница тут именно в том, что считается "сведением")

    ---------
    Я тут уже намекал, что надо копать в сторону "кол-ва информации", т.е. в сторону осмысления единиц измерения оной, потому как теория информации применима к любому базису сведений (и пресловутые попугаи — тоже вполне себе базис, а для алгоритмической — взяли бит, ничем не лучше).

    ---------
    Заведомо не хочу вдаваться в обсуждение эффектов в квантовой электро и термодинамике, связанных с наблюдаемостью, ибо наблюдение/регистрация — суть обмен энергией/информацией, т.е. сам факт наблюдения за системой нарушает её замкнутость.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[25]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 13:58
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V>Ага, который опирается на термин сведений


    Нет там никаких сведений.

    V>Загвоздка в том, в классическом определении энтропии не дано определение термину "сведения"


    Разумеется.

    V>, которое ИМХО, весьма субъективно


    Зато состояния системы — объективны.

    V>, отсюда я склонен относить конкретную энтропию чего-либо так же к субъективным понятиям.


    Принцип неопределенности тоже субъективен?

    AVK>>Как раз таки очень даже серьезно и корень большинства непоняток в топикпе.


    V>Имел ввиду, что несерьёзность в том, что невозможно формализовать — где кончается объективность и начинается субъективность.


    И не надо. Теория информации под информацией имеет в виду вполне конкретную вещь, и законы, которые там описываются, вполне объективны. А то что ты из терминов высасываешь феерические построения, это сугубо твои проблемы.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[27]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 13:58
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    AVK>>Схемы чего?


    V>Ну, обсуждалась же возможность замены аналоговых расчётов цифровыми.

    V>Я вот разве что могу дискретное преобразование фурье на аналоговых элементах посчитать

    Ты можешь обычное преобразование Фурье сделать аналоговым способом.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[25]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 13:58
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V> Замечание только в том, что основные переходные процессы в случае ПИД не паразитные, а именно являются частью алгоритма расчёта


    Алгоритм расчета аналогового вычислителя??? Если мы считаем сумму входов, то на выходе реальная сумма будет отставать от значения входов на вполне конкретную величину, которую сделать равной 0 не возможно в принципе. Никаких алгоритмов там нет, и запаздывание никоим образом не является полезным эффектом.

    V>Почему считаю, что сейчас неактально? Из-за всяких L1/L2/L(i), т.к. переходные процессы в выч. системах разделились на "внешние" и "внутренние", внутренняя частота вычисляющих ядер может быть на порядки выше граничной максимальной частоты периферийных портов, что практически нивелирует доп. задержки на расчёты.


    Все намного проще. В аналоговых вычислителях латентность неразрывно связана с точностью. Чем выше нужна точность, тем ниже латентность, и тем дороже (экспоненциально дороже) при фиксированной латентности становится аппаратура. А для цифровых вычислителей повышение точности дается намного дешевле, и цена аппаратуры для фиксированной латентности растет меньше чем линейно.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[28]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 06.02.09 14:06
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Ты можешь обычное преобразование Фурье сделать аналоговым способом.


    Я могу! При помощи призмы и фотобумаги. Если я не ошибаюсь, спектрометр изобрели в 19-м веке.
    Re[26]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 15:45
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Алгоритм расчета аналогового вычислителя??? Если мы считаем сумму входов, то на выходе реальная сумма будет отставать от значения входов на вполне конкретную величину, которую сделать равной 0 не возможно в принципе.


    Ну вот сумматор на 3-х сопротивлениях имеет задержки, ограниченные снизу только геометрическим размером этих сопротивлений, и имеет на порядки большее быстродействие, чем цифровой сумматор на той же элементной базе. Но и это фигня, аналоговые вычислители использовались в основном для нахождения интеграллов (и реже — дифференциалов), а в первом случае без Т(тау) никак, мы же считаем конечный интеграл по некоему диапазону. Входная ф-ия — ток от времени. Учитывая, что функция в обычном применении была "реалтаймовая", то и расчёт был реалтаймовый, т.е. интеграция зачастую в алгоритмах подменялась НЧ фильтрацией с той самой заданной T.

    AVK>Никаких алгоритмов там нет, и запаздывание никоим образом не является полезным эффектом.


    Ммм, еще как есть. Структура вычислителя определяет алгоритм. (А по требуемым алгоритмам создаётся структура )


    AVK>Все намного проще. В аналоговых вычислителях латентность неразрывно связана с точностью.


    Всего-лишь один из показателей, и как для прочих не должен превышать заданной погрешности. В классических применениях латентность вычислителей несоизмерима меньше погрешности заданного T.

    AVK>Чем выше нужна точность, тем ниже латентность, и тем дороже (экспоненциально дороже) при фиксированной латентности становится аппаратура.


    Как-то всё с ног на голову.
    Чем выше нужна точность, тем прецензионней изготовление и выше то самое пресловутое собственное T.
    Такие дела. Кстати, для АЦП это так же верно, чем быстродейственней АЦП на той же элементной базе, тем менее он точен.


    AVK>А для цифровых вычислителей повышение точности дается намного дешевле, и цена аппаратуры для фиксированной латентности растет меньше чем линейно.


    Вот еще, это только для определённых диапазонов требуемых задержек. Для реалтаймового распознавания/обнаружения быстроменяющегося сигнала использовались и еще долго будут использоваться аналоговые способы расчётов.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[28]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 15:45
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:


    V>>Ну, обсуждалась же возможность замены аналоговых расчётов цифровыми.

    V>>Я вот разве что могу дискретное преобразование фурье на аналоговых элементах посчитать

    AVK>Ты можешь обычное преобразование Фурье сделать аналоговым способом.


    Намекаешь на АЧХ/ФЧХ — измерители?
    Одновременно выход-то не получить. Т.е. из бесконечного ряда частот измеряется только одна частота в один момент времени, а значит обратно восстановить композитный сигнал никак.

    С дискретным интегралом проще, нужна всего-лишь сетка корреляторов (умножитель + генератор) для некоего диапазона частот. Шаг генераторов расчитывается всё по той же частоте Найквиста. Используя эти же экземпляры генераторов сигнал восстанавливается с очень большой точностью, кстати, даже если само преобразование было с погрешностью. (Этот же алгоритм, кстати, используется и в цифровых расчётах).
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 06.02.09 16:24
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    ...

    Ещё немного физического дерьма на вентилятор

    http://science.compulenta.ru//396984/?phrase_id=10438841

    ну и

    Квантовая телепортация

    Делай что должно, и будь что будет
    Re[29]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 16:56
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V>Намекаешь на АЧХ/ФЧХ — измерители?


    Намекаю на банальные полосовые фильтры, или, как Voblin справедливо заметил, на еще более банальную призму.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[27]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 16:56
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V>Ну вот сумматор на 3-х сопротивлениях имеет задержки, ограниченные снизу только геометрическим размером этих сопротивлений


    И при этом плохую точность и масштабируемость. Поэтому сумматоры делают из ОУ.

    V>Ммм, еще как есть. Структура вычислителя определяет алгоритм.


    http://ru.wikipedia.org/wiki/Алгоритм

    В старой трактовке алгоритм — это точный набор инструкций, описывающих последовательность действий некоторого исполнителя для достижения результата, решения некоторой задачи за конечное время. По мере развития параллельности в работе компьютеров слово «последовательность» стали заменять более общим словом «порядок». Это связано с тем, что какие-то действия алгоритма должны быть выполнены только друг за другом, но какие-то могут быть и независимыми.

    Аналоговый вычислитель это просто функция, никакой последовательности или порядка там нет.

    V>Чем выше нужна точность, тем прецензионней изготовление и выше то самое пресловутое собственное T.


    Прецизионные элементы необходимое, но не достаточное условие обеспечения высокой точности. Но и одной прецизионности достаточно, чтобы сделать аналоговую точность очень дорогой.

    V>Вот еще


    Именно так. Поэтому, к примеру, подавляющее большинство полосовых фильтров высокого порядка — цифровые, хотя и на входе и на выходе аналоговый сигнал.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[30]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 17:26
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:


    AVK>Намекаю на банальные полосовые фильтры,


    Ну вот и дискретный получили (т.е. по фиксированной сетке частот, а не по рельному непрерывному ряду), о чём и речь.

    AVK>или, как Voblin справедливо заметил, на еще более банальную призму.


    Датчики после призмы тоже дискретные будут, и еще было бы интересно посмотреть на преобразователь электрического сигнала в световой с неким пропорциональным частотным переносом.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[28]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 17:26
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    V>>Ну вот сумматор на 3-х сопротивлениях имеет задержки, ограниченные снизу только геометрическим размером этих сопротивлений


    AVK>И при этом плохую точность и масштабируемость. Поэтому сумматоры делают из ОУ.


    Не поэтому, но долгий разговор. В кратце, в основе сумматора на ОУ все-равно звезда из сопротивлений, ОУ выступает как развязка, т.к. необходимо бесконечно большое эквивалентное входное сопр, нагрузки что обеспечивается ОУ (он по-сути — нагрузка-повторитель для сумматора + масштабный фикс. коеф.).

    V>>Ммм, еще как есть. Структура вычислителя определяет алгоритм.


    AVK>http://ru.wikipedia.org/wiki/Алгоритм

    AVK>

    В старой трактовке алгоритм — это точный набор инструкций, описывающих последовательность действий некоторого исполнителя для достижения результата, решения некоторой задачи за конечное время. По мере развития параллельности в работе компьютеров слово «последовательность» стали заменять более общим словом «порядок». Это связано с тем, что какие-то действия алгоритма должны быть выполнены только друг за другом, но какие-то могут быть и независимыми.

    AVK>Аналоговый вычислитель это просто функция, никакой последовательности или порядка там нет.

    Тем не менее, "алгоритм" легко и широко используется как синоним структуры блоков обработки сигнала (наверно как сленг). В графическом виде алгоритм обработки сигналов (напр. ТЗ на некий модуль) представляется в аналогичной функциональной схеме, что для аналоговой, что для цифровой аппаратной или программной реализации. Возможно, тут могло быть обратное заимствование термина из IT.


    AVK>Именно так. Поэтому, к примеру, подавляющее большинство полосовых фильтров высокого порядка — цифровые, хотя и на входе и на выходе аналоговый сигнал.


    Я не с этим спорю, а с тем, что это только в определённой полосе частот.
    Те же цветоразностные из поднесущих не особо-то процы обсчитывают даже в цифровых телеках, хотя частоты поднесущих относительно низкие, т.е. выделяют аналоговым образом, и уже потом на АЦП.

    Аналогично в радарных установках, максимум операций по распознаванию сигнала происходит в аналоговой форме.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[31]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 17:29
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V>Ну вот и дискретный получили


    Нет, полосовой фильтр может быть и аналоговым.

    V> (т.е. по фиксированной сетке частот, а не по рельному непрерывному ряду)


    Можно и по непрерывному ряду. Скажем, ряд физических процессов позволяет растащить частоты в пространстве.

    AVK>>или, как Voblin справедливо заметил, на еще более банальную призму.


    V>Датчики после призмы тоже дискретные будут


    Нет никаких датчиков, не сочиняй

    V>, и еще было бы интересно посмотреть на преобразователь электрического сигнала в световой с неким пропорциональным частотным переносом.


    Зачем?
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[2]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 09.02.09 07:56
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>ну и

    SH>Квантовая телепортация
    Там говорится о необходимости классического канала связи и специально подчёркнуто, что быстрее скорости света информация не передаётся.
    Что это? Ошибка, происки фанатов Эйнштейна или так оно и есть?
    Re[23]: Просто, мысли вслух...
    От: craft-brother Россия  
    Дата: 09.02.09 08:35
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Мне, практикующему специалисту по автоматизированным системам управления [...]


    «Спасибо тебе Господи, что ты создал все нужное нетрудным, а все трудное – ненужным». (c) Георгий Сковорода.


    Развитие информатики представляется мне рекой, которая рождается далеко в прошлом (Евклид, III век до н.э.; Вавилон, XIX век до н.э.; или раньше?) из едва заметных ручейков первых алгоритмических вычислений. Неспешно двигаясь по истории, ручейки объединяются в реку, которая, неся свои воды, через века, вбирает в себя притоки из смежных дисциплин, накапливает величественность и мощь и, наконец, срывается ниагарским водопадом из 2-го в 3-е тысячелетие, превращаясь в стремительный бурлящий поток, который захватывает и несет с собой из прошлого в будущее миллионы людей.

    Броуновской молекуле, которую, то бросает на стремнину с турбулентным течением, то в застоявшееся болото, то на мелководье, то в омут, мир информационных технологий видится загадочным, изменчивым и непредсказуемым. Однако, радость постоянного движения, героического преодоления трудностей, бешеного вращения калейдоскопа новых впечатлений, со временем сменяется грустью, томлением духа и непреодолимой потребностью на мгновение приподняться над суетой, взглянуть со стороны, и попытаться разглядеть, если не общее направление бешено несущейся реки, то хотя бы, ближайший поворот той протоки, в которой барахтаешься.

    Вот, например, почему, сколько бы ни вбухивали денег в R&D, до сих пор нет заметных продвижений в таких областях, как ИИ, машинный перевод, распознавание образов, экспертные системы?

    Может быть, И. М. Гельфанд прав, утверждая, что «всякая задача становится тривиальной, если ее сформулировать в адекватном языке», а мы, как и 50 лет, назад описываем задачу, которую должна решать программа, на языке битов, команд процессора и передачи управления.
    Re[24]: Просто, мысли вслух...
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 09.02.09 10:20
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>

    «Спасибо тебе Господи, что ты создал все нужное нетрудным, а все трудное – ненужным». (c) Георгий Сковорода.

    В смысле?

    CB>Развитие информатики представляется мне рекой, которая рождается далеко в прошлом (Евклид, III век до н.э.; Вавилон, XIX век до н.э.; или раньше?)


    Раньше, намного раньше.

    CB>Неспешно двигаясь по истории, ручейки объединяются в реку, ....


    Супер! Правда, очень понравилось!

    CB>Вот, например, почему, сколько бы ни вбухивали денег в R&D, до сих пор нет заметных продвижений в таких областях, как ИИ, машинный перевод, распознавание образов, экспертные системы?


    То, что нет заметных продвижений, ни о чём не говорит. Вот теорему Ферма, например, тоже долго не могли доказать. Даже доказательства переставали принимать на рассмотрение. И вот, на тебе, таки доказали.

    Что касается машинного перевода произвольного текста, то может оказаться, что у задачи действительно нет решения. Для того, чтобы корректно перевести текст, нужно не просто сопоставить слова, но и понять мысль автора, понять, зачем он написал именно это слово, именно это предложение, именно этот текст. Т.е. переводчик должен поставить себя на место автора, и изложить то же самое, только на другом языке. И не забыть про смысловой и культурный контекст. Для этого переводчику надо быть объектом, не отличающемся принципиально от автора. Боюсь, что если будет создан такой полноценный переводчик, ему надо будет выдать паспорт, разрешить участвовать в выборах и усыновлять детей

    CB>Может быть, И. М. Гельфанд прав, утверждая, что «всякая задача становится тривиальной, если ее сформулировать в адекватном языке», а мы, как и 50 лет, назад описываем задачу, которую должна решать программа, на языке битов, команд процессора и передачи управления.


    Целиком и полностью согласен.

    Однако, возвращаясь к нашим баранам, никак не могу согласиться с тем, что для создания «адекватного языка» нам нужно распилить надвое понятие «информация».

    И дело здесь не в том, что какие-то исследователи целиком стоят на неверном пути. Просто по пути, который они избрали, нельзя идти достаточно долго. (c) Кто-то из умных людей

    Re[25]: Просто, мысли вслух...
    От: craft-brother Россия  
    Дата: 09.02.09 13:40
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    CB>>

    «Спасибо тебе Господи, что ты создал все нужное нетрудным, а все трудное – ненужным». (c) Георгий Сковорода.

    V>В смысле?

    В том смысле, что ИТ пошло не по тому пути. У меня сложилось впечатление, что нас загипнотизировала сложность изображения множества Мандельброта и мы отказались искать адекватный и простой язык его описания. О том почему это никому не нужно я уже писал здесь
    Автор: craft-brother
    Дата: 30.12.05
    .

    V>То, что нет заметных продвижений, ни о чём не говорит. Вот теорему Ферма, например, тоже долго не могли доказать. Даже доказательства переставали принимать на рассмотрение. И вот, на тебе, таки доказали.


    V>Что касается машинного перевода произвольного текста, то может оказаться, что у задачи действительно нет решения. Для того, чтобы корректно перевести текст, нужно не просто сопоставить слова, но и понять мысль автора, понять, зачем он написал именно это слово, именно это предложение, именно этот текст. Т.е. переводчик должен поставить себя на место автора, и изложить то же самое, только на другом языке. И не забыть про смысловой и культурный контекст. Для этого переводчику надо быть объектом, не отличающемся принципиально от автора. Боюсь, что если будет создан такой полноценный переводчик, ему надо будет выдать паспорт, разрешить участвовать в выборах и усыновлять детей


    CB>>Может быть, И. М. Гельфанд прав, утверждая, что «всякая задача становится тривиальной, если ее сформулировать в адекватном языке», а мы, как и 50 лет, назад описываем задачу, которую должна решать программа, на языке битов, команд процессора и передачи управления.


    V>Целиком и полностью согласен.


    V>Однако, возвращаясь к нашим баранам, никак не могу согласиться с тем, что для создания «адекватного языка» нам нужно распилить надвое понятие «информация».


    Хотя некоторые современники, например, И.Ашманов, и считают, что старая теория «смысл-текст»«это лженаука, которая повредила мозги очень многим тогда, и от последствий которой отечественная прикладная лингвистика избавлялась очень долго, но так и не избавилась до конца». Но, ИМХО, проблема была сформулирована-то верно: получить машинное представление смысла, то есть научить машину из данных извлекать информацию. На мой взгляд, пока эта задача не решена, мы не продвинемся ни в ИИ, ни в машинном переводе, ни в распознавании образов, ни в экспертных системах.

    А хочется помечтать…
    Re[26]: Просто, мысли вслух...
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 09.02.09 17:02
    Оценка:
    Здравствуйте, craft-brother, Вы писали:

    CB>В том смысле, что ИТ пошло не по тому пути. У меня сложилось впечатление, что нас загипнотизировала сложность изображения множества Мандельброта и мы отказались искать адекватный и простой язык его описания. О том почему это никому не нужно я уже писал здесь
    Автор: craft-brother
    Дата: 30.12.05
    .


    Может быть, и не по тому. Но, мне кажется, что по тому пути, по которому, по которому прошло ИТ, в любом случае обязательно стоило сходить. В результате мы получили массу замечательных артефактов. Более того, мы получили Интернет — ещё одну среду обитания человечества.
    Не уверен, что на других дорогах мы бы это всё нашли. Шагоходы и махолёты, конечно, забавны, но ездить удобнее на колёсах, а летать удобнее на неподвижных крыльях.

    Я не отрицаю, что альтернативные направления информатики развивать нужно. Более того, я обеими руками за! Пора кончать эру бездушных машин.

    CB>Хотя некоторые современники, например, И.Ашманов, и считают, что старая теория «смысл-текст»«это лженаука, которая повредила мозги очень многим тогда, и от последствий которой отечественная прикладная лингвистика избавлялась очень долго, но так и не избавилась до конца». Но, ИМХО, проблема была сформулирована-то верно: получить машинное представление смысла, то есть научить машину из данных извлекать информацию. На мой взгляд, пока эта задача не решена, мы не продвинемся ни в ИИ, ни в машинном переводе, ни в распознавании образов, ни в экспертных системах.


    Господин Ашманов очень точно выразился. Я с ним согласен. То, что в течении десятилетий развивалось под брэндом "ИИ", годится только для встраивания в резиновую женщину. А что? И то, и другое — имитация формы безо всякого содержания. Они созданы друг для друга.

    Для того, чтобы продвинуться дальше, нужно научиться закладывать в машину смысл. Не имитацию смысла, не символ смысла, а именно сам смысл.
    Что такое этот самый смысл? Ну, здесь как раз всё неожиданно просто. Смысл — это критерий, по которому существо (уж извините, машина при этом автоматически становится существом) оценивает всю информацию, поступающую к нему через input (данные об окружающем мире, собственное поведение через короткие цепи обратной связи, и даже информацию о своём внутреннем состоянии), и строит своё поведение так, чтобы этот критерий максимизировался.

    Самое смешное, что строить логически простые устройства по этому принципу люди уже научились давно. Заложить простенький "смысл жизни" в головку самонаведения ракеты земля-воздух — нет проблем. Но подчинить деятельность робота абстрактным и противоречивым законам роботехники — значительно сложнее. Но то, что это принципиально возможно, лично я не сомневаюсь. Только подход к этой проблеме должен быть не тот, который принято применять сейчас. Пытаться сочинить на эту тему С++ -овский паттэрн в стиле GoF — дохлый номер.

    Вы спросите, как это использованное здесь понятие "смысл" превращается в смысл текста, который так долго и безуспешно искали специалисты по ИИ? Сложно превращается, окольными путями. Но это именно та субстанция, из которой он и рождается. И ни из чего другого родиться не может.

    CB>А хочется помечтать…

    CB>

    Помечтать хочется. И даже получается. Но мне мечтается не об автоматических переводчиках, и не об услужливых железных болванах. И даже не об огромных человекоподобных роботах, защищающих рубежи нашей Родины.

    Стирание грани между автоматическим и автоматизированным управлением — вот достойная задача. Область применения? О большинстве из них мы просто не догадываемся. Как не догадывался Тим Бернерс-Ли, что его детище станет информационной средой обитания человечества во многом благодаря возможности публиковать "весёлые картинки". Как не догадывался Джон фон Нейман, что на компьютере можно смотреть кино, слушать музыку и отстреливать мутантов (вот он удивился бы, да?).
    Re: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 25.02.09 10:56
    Оценка:
    Здравствуйте, друзья, вы много писали, и поэтому настало время всё накопленное обобщить и подытожить.

    Во-первых, огромное спасибо всем, принявшим участие в обсуждении. Славненько так почесали язык об ветку Кывта. Очень надеюсь, что никто не ушёл обиженным.

    Сначала я коротенько пройдусь по основным затронутым темам, посмотрю на них немножко "со стороны", а в конце (после <hr>) уже по возможности связно напишу ответы на свои вопросы, поставленные в корневом топике.

    Некоторые усомнились в том, что обсуждаемый вопрос имеет отношение к философии программирования. Они совершенно правы. Это чистая философия. Может быть, правильнее было бы его обсуждать с профессиональными философами. Но мне было значительно интереснее услышать мнение практиков. К тому же, думаю, с завсегдатаями "настоящих" философских форумов я говорил бы на разных языках.

    Наше обсуждение очень наглядно продемонстрировало столкновение нескольких картин мира. Для меня оказалось сюрпризом, насколько много среди нас, программеров, приверженцев механистической познавательной модели. Физикализм настолько плотно засел в наши мозги, что нас не спасает даже то, что вся область приложения наших профессиональных усилий — это чистая виртуальщина, не имеющая никакого отношения к реальному (физическому) миру. Чуть подробнее о существующих познавательных моделях можно почитать, например, здесь.

    Из всех познавательных моделей механистическая, пожалуй, меньше всего подходит для рассуждений о природе информации. Чем глубже мы спускаемся в рассмотрение физической основы явлений, тем меньше у нас остаётся шансов обнаружить объект исследования. Глядя через самый сильный "микроскоп", мы видим либо жёсткий детерминизм (F=ma, и никаких фантазий) либо чистую случайность, замешанную на неопределённости (квантовые явления). В результате мы довольно быстро приходим к выводу, что "информации не существует". Вы будете смеяться, но это правильный вывод. Правильный в рамках механистической познавательной модели. На этом применение физикализма для рассуждений о природе информации можно закончить. Ввиду исчезновения объекта исследования. Соответственно, в нашем деле противопоказано следующее:
    1. Лазить в Большой Взрыв и в чёрные дыры.
    2. "Курить кванты".
    3. Конструировать демона Лапласа. Демон Лапласа — вообще замечательная штука в том смысле, что его можно и нужно использовать как стоп-сигнал. Т.е. если какое-то рассуждение приводит к необходимости изготовления демона Лапласа для решения какой-то задачи (ну или хотя бы маленького локального демончика), то это значит, что мы двинулись в неправильном направлении и пытаемся наблюдать звёзды в микроскоп.

    Не удивительно, что у нас было довольно много рассуждений об энтропии и втором законе термодинамики. В самом деле, почему бы и нет? Классическое определение количества информации даётся обычно через величину, обратную энтропии. А второй закон термодинамики — это закон неубывания энтропии в замкнутых системах. Беда лишь в том, что понятие "энтропия", применяемое Шенноном и понятие "энтропия", применяемое Больцманом — это принципиально разные понятия. В некоторых источниках даже специально оговаривается, что термодинамическое значение слова "энтропия" должно применяться исключительно к идеальному газу. Господа, я не готов согласиться с тем, что моя черепная коробка заполнена идеальным газом
    Разница между понятиями термодинамической и инфотехнологической энтропиями — это примерно как разница между силой гравитации и силой воли. И то, и другое — несомненно силы. Это больше, чем слова-омонимы. Но пытаться измерять силу воли в ньютонах и вычислять порождаемое ею ускорение — глупо.
    Возвращаясь к познавательным моделям, можно сказать, что термодинамическая энтропия родом из статистической познавательной модели, а информационная — из системной. И смешивать их не нужно. Они не смешиваются.

    Даже информационное понятие "энтропия" нужно применять аккуратно.

    Информационная энтропия — мера неопределённости источника сообщений, определяемая вероятностями появления тех или иных символов при их передаче.

    Соответственно, говорить, что при получении некоей информации моя собственная энтропия уменьшается — не совсем правильно. Пока я сам не стал для кого-то или для чего-то объектом исследования (или хотя бы источником символов первичного алфавита), у меня вообще нет никакой информационной энтропии. Нет, она не нулевая. Она "is NULL".

    Немало копий было сломано вокруг утверждения о том, что понятие "информация" применимо только к объектам живого мира. Была сделана попытка распилить исследуемое понятие на два отдельных — "информацию" и "данные". Надеюсь, здесь
    Автор: Voblin
    Дата: 06.02.09
    мне удалось достаточно убедительно доказать, что это не только бесполезно, но и весьма опасно.
    Однако рассуждения про живой мир натолкнули (я очень благодарен goto за слово "воля", произнесённое в нужное время в нужном месте
    Автор: goto
    Дата: 23.01.09
    ) на очень важную мысль, что для понимания роли информации в этом грешном мире нужно чётко осознать, что некоторые объекты обладают мотивированным поведением. Подробнее см. здесь
    Автор: Voblin
    Дата: 23.01.09
    .



    Теперь немножко поотвечаю на свои же вопросы.

    V>У информации весьма сложные взаимоотношения с объективной реальностью. [...] Несмотря на то, что, казалось бы, информация может объективно существовать, объективность её существования — под большим вопросом.

    Ничего подобного! Та информация, которая существует, существует вполне даже объективно. Но для существования информации нужен контекст. "Повести Белкина" существуют в контексте русской литературы, и поэтому для нас, подключённых к этому контексту, они существуют объективно.
    А для текстов ронго-ронго культурный контекст утрачен, и поэтому они теперь влачат своё существование только в контексте археологии и музейного дела.

    V>Вопрос: откуда информация берётся, если не существует операций, увеличивающих количество информации, зато есть масса обстоятельств, при которых она исчезает?

    Она поступает через датчики (в биологии они называются рецепторами) на вход систем, умеющих информацию обрабатывать. Откуда она там, во вне, берётся? Возможно несколько вариантов:
    1. Её туда кто-то положил (здесь мы, правда, становимся персонажами анекдота про Мойшу, его жену, деньги и тумбочку).
    2. А её там и не было . Есть великий и прекрасный реальный мир, воздействующий на наши органы чувств, но то, что мы через них получаем, никто в виде информации нам не передавал. Свет Полярной звезды становится информацией о направлении на север только в контексте наших скудных познаний в астрономии и желания сориентироваться на местности.

    V>В общем случае информационные объекты нельзя точно локализовать ни в пространстве, ни во времени.

    Ну да. Ну и что здесь удивительного, если информационные объекты не являются частью физической реальности? Это ж только физические объекты (вещество и энергия) должны быть как-то локализованы в пространстве-времени.

    V>Похоже, что сама суть понятия "информация" прошита куда-то вглубь структуры пространства-времени.

    Ничего подобного. Чушь.

    V>Оставаясь в рамках позитивной науки, можно с некоторой долей уверенности выделить следующие свойства информации:

    V>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии.
    Ага. Кстати, этот физический носитель можно назвать информационным каналом. Иногда — из прошлого в будущее.

    V>2. Из точки А информация не может поступить в точку Б если между ними нет информационного канала.

    В принципе да, но есть маленькое осложнение, связанное с тем, что "в общем случае информационные объекты нельзя точно локализовать ни в пространстве, ни во времени".

    V>Какие ещё у информации есть свойства?

    3. Информационный процесс инвариантен относительно способа его реализации.
    И это, наверно, главное свойство информации.
    Re: Несколько дурацких вопросов по теории информации
    От: Аем Вопля  
    Дата: 27.02.09 20:32
    Оценка:
    Что есть материя? Что есть энергия? Что такое пространство? Что такое время? Что такое движение? Что значит существовать? Зачем существует Вселенная? Зачем живет человек?

    Зачем я пишу на RSDN?
    Re[2]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 02.03.09 08:19
    Оценка:
    Здравствуйте, Аем Вопля, Вы писали:

    АВ>Что есть материя? Что есть энергия? Что такое пространство? Что такое время? Что такое движение? Что значит существовать? Зачем существует Вселенная? Зачем живет человек?

    Ответы на эти вопросы есть. Разной степени детализации и удовлетворительности. Меня, например, вполне устраивает то, что хотя бы с последним вопросом я определился

    АВ>Зачем я пишу на RSDN?

    "Не могу молчать"?
    Re[3]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 02.03.09 12:32
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V> Меня, например, вполне устраивает то, что хотя бы с последним вопросом я определился


    Поделись, интересна твоя версия.
    Делай что должно, и будь что будет
    Re[4]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 02.03.09 15:28
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Поделись, интересна твоя версия.

    В обмен на твою, ОК?

    Итак, моя версия ответа на вопрос "Зачем живёт человек".

    Если совсем кратко, то можно сказать словами из песни "Шелкопряд" группы Fleur:

    Мне бы только свой крошечный вклад внести
    За короткую жизнь сплести
    Хотя бы ниточку шёлка


    Человек живёт для того, чтобы быть полезным. Своим детям, внукам, друзьям, знакомым, да вообще кому угодно, своей деревне, своему городу, не своему городу, своей стане. В общем, человек должен быть полезен человечеству.

    Отдельный вопрос, зачем живёт оно, это самое человечество. Может, ну его? Ну, во-первых, для нас, являющихся по своей сути его частями, посылать его к чёртовой матери — противоестественно. А во-вторых,... можно придумать много фантазий на тему того, почему человечество существует не зря.

    Никому своё мнение не навязываю. Просто рекламирую тот сорт "наркотика", от которого сам торчу
    Re[5]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 02.03.09 15:55
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>В обмен на твою, ОК?


    Посмотрим

    V>Если совсем кратко, то можно сказать словами из песни "Шелкопряд" группы Fleur:

    V>

    Мне бы только свой крошечный вклад внести
    V>За короткую жизнь сплести
    V>Хотя бы ниточку шёлка


    V>Человек живёт для того, чтобы быть полезным. Своим детям, внукам, друзьям, знакомым, да вообще кому угодно, своей деревне, своему городу, не своему городу, своей стане. В общем, человек должен быть полезен человечеству.


    Уточни, что значит "полезным".
    Почему это не крючкотворство, а вопрос по существу. Потому что понятие "польза" не существует вне контекста "полезно для чего", т.е. некой цели. Цели могут быть разными, "полезные действия" -- тоже. Например, некоторые действия очень полезны с точки зрения расовой чистоты, но вредны с других точек зрения.
    Делай что должно, и будь что будет
    Re[6]: Несколько дурацких вопросов по теории информации
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 02.03.09 18:36
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Здравствуйте, Voblin, Вы писали:


    V>>Человек живёт для того, чтобы быть полезным. Своим детям, внукам, друзьям, знакомым, да вообще кому угодно, своей деревне, своему городу, не своему городу, своей стане. В общем, человек должен быть полезен человечеству.


    SH>Уточни, что значит "полезным".

    SH>Почему это не крючкотворство, а вопрос по существу. Потому что понятие "польза" не существует вне контекста "полезно для чего", т.е. некой цели. Цели могут быть разными, "полезные действия" -- тоже. Например, некоторые действия очень полезны с точки зрения расовой чистоты, но вредны с других точек зрения.

    Моё мнение — это очень субъективное дело.
    Я бы вообще сказал, что польза так или иначе есть критерий личный, возможно параметры будут прявляться внешне (посадил дерево, родил ребёнка и т.п.), но главное, чтобы это было нужно самому человеку.
    Re[7]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 02.03.09 18:52
    Оценка:
    Здравствуйте, Курилка, Вы писали:

    К>Моё мнение — это очень субъективное дело.


    Угу. Но всё-таки хотелось бы послушать начальника транспортного цеха

    К>Я бы вообще сказал, что польза так или иначе есть критерий личный, возможно параметры будут прявляться внешне (посадил дерево, родил ребёнка и т.п.), но главное, чтобы это было нужно самому человеку.


    Это был бы замечательный вариант, если бы не декларировалась "польза человечеству". А так оказывается, что человечество и не при чём, играет роль только сам человек. Шелкопряд прядёт шёлк не для ткача, отнюдь, он про ткача не в курсе.
    Делай что должно, и будь что будет
    Re[8]: Несколько дурацких вопросов по теории информации
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 02.03.09 19:03
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Здравствуйте, Курилка, Вы писали:


    К>>Моё мнение — это очень субъективное дело.


    SH>Угу. Но всё-таки хотелось бы послушать начальника транспортного цеха


    Ну ждём начальника цеха, надеюсь не страшно, что своё мнение высказал?

    К>>Я бы вообще сказал, что польза так или иначе есть критерий личный, возможно параметры будут прявляться внешне (посадил дерево, родил ребёнка и т.п.), но главное, чтобы это было нужно самому человеку.


    SH>Это был бы замечательный вариант, если бы не декларировалась "польза человечеству". А так оказывается, что человечество и не при чём, играет роль только сам человек. Шелкопряд прядёт шёлк не для ткача, отнюдь, он про ткача не в курсе.


    Ну у начальника цеха вроде не было "пользы человечеству", а совпадает или нет личная польза и польза человечеству — вопрос зависящий от многих факторов. Да и "польза человечеству" тоже очень плохо определяемое понятие.
    Re[8]: Несколько дурацких вопросов по теории информации
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 02.03.09 19:07
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Шелкопряд прядёт шёлк не для ткача, отнюдь, он про ткача не в курсе.


    И ещё — в курсе или нет он про ткача может быть совершенно излишней информацией к качеству шёлка совсем не имеющей отношения.
    Re[9]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 02.03.09 19:15
    Оценка:
    Здравствуйте, Курилка, Вы писали:

    К>Ну у начальника цеха вроде не было "пользы человечеству", а совпадает или нет личная польза и польза человечеству — вопрос зависящий от многих факторов. Да и "польза человечеству" тоже очень плохо определяемое понятие.


    Было

    Человек живёт для того, чтобы быть полезным. Своим детям, внукам, друзьям, знакомым, да вообще кому угодно, своей деревне, своему городу, не своему городу, своей стане. В общем, человек должен быть полезен человечеству.

    Делай что должно, и будь что будет
    Re[10]: Несколько дурацких вопросов по теории информации
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 02.03.09 19:22
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Здравствуйте, Курилка, Вы писали:


    К>>Ну у начальника цеха вроде не было "пользы человечеству", а совпадает или нет личная польза и польза человечеству — вопрос зависящий от многих факторов. Да и "польза человечеству" тоже очень плохо определяемое понятие.


    SH>Было


    SH>

    Человек живёт для того, чтобы быть полезным. Своим детям, внукам, друзьям, знакомым, да вообще кому угодно, своей деревне, своему городу, не своему городу, своей стане. В общем, человек должен быть полезен человечеству.


    И правда, посылаю голову пеплом
    Re[3]: Несколько дурацких вопросов по теории информации
    От: _________  
    Дата: 02.03.09 20:34
    Оценка:
    V>Ответы на эти вопросы есть. Разной степени детализации и удовлетворительности.

    Не могли бы поделиться?
    Re[7]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 03.03.09 10:53
    Оценка:
    Здравствуйте, SergH и Курилка, Вы писали:

    SH>>Уточни, что значит "полезным".

    SH>>[...]

    К>Моё мнение — это очень субъективное дело.


    Абсолютно с этим согласен. Мы не можем знать, что на самом деле нужно человечеству. Для того, чтобы это знать, нужно быть не составной частичкой этого мегаорганизма, а существом сопоставимого (желательно планетарного) масштаба. Кроме того, желательно жить в сопоставимом масштабе времени. Т.е. не секунды и минуты как у нас, а годы и столетия.

    Так что, господа, всё плохо. Мы не можем поговорить с человечеством и спросить, что ему действительно полезно. Не можем поговорить со страной. Даже директор и владелец фирмы не может с этой самой фирмой поговорить. Собрать совещание и поговорить с начальниками отделов — может. Созвать собрание и поговорить с людьми — может. Но это будет именно разговор с людьми. А вот с самой фирмой он не поговорит. Разный масштаб.

    Точно так же мы, люди, не можем общаться с клеточками, населяющими наши организмы. Не можем не потому, что они тупые и примитивные (можно сказать, вообще простейшие!). Алгоритмическая сложность новорожденного младенца не сильно выше алгоритмической сложности оплодотворённой яйцеклетки. У нас просто разный масштаб.

    Как же быть? Куда же бечь? Как отличить полезную деятельность от бесполезной и вредной? На самом деле нужно подробно и развёрнуто ответить себе на незамысловатый вопрос:
    Почему я не готов сдохнуть сегодня?
    После этого выкидываем из ответа следующие пункты:
    — Очень страшно.
    — Боюсь, это очень больно.
    — Нет денег на похороны.
    — Не досмотрел любимый сериал. Кроме того, интересно, чем закончится финансовый кризис.
    — Не попробовал ещё омары с трюфелями и чёрной икрой. Не был на Бора-Бора, не купался с дельфинами, не прыгал с парашютом.
    После этого в сухом остатке остаются те виды деятельности, которые действительно важны и для кого-то полезны.

    Как вам такая методика?

    К>Я бы вообще сказал, что польза так или иначе есть критерий личный

    Ага.

    К>возможно параметры будут прявляться внешне (посадил дерево, родил ребёнка и т.п.)

    Не надейтесь. Нет внешних критериев. Вернее, они есть, но они для нас непостижимы. Боюсь, их даже на человеческом языке сформулировать невозможно.

    К>но главное, чтобы это было нужно самому человеку.

    Re[8]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 03.03.09 12:15
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Как же быть? Куда же бечь? Как отличить полезную деятельность от бесполезной и вредной? На самом деле нужно подробно и развёрнуто ответить себе на незамысловатый вопрос:

    V>Почему я не готов сдохнуть сегодня?
    V>После этого выкидываем из ответа следующие пункты:
    V>- Очень страшно.
    V>- Боюсь, это очень больно.
    V>- Нет денег на похороны.
    V>- Не досмотрел любимый сериал. Кроме того, интересно, чем закончится финансовый кризис.
    V>- Не попробовал ещё омары с трюфелями и чёрной икрой. Не был на Бора-Бора, не купался с дельфинами, не прыгал с парашютом.
    V>После этого в сухом остатке остаются те виды деятельности, которые действительно важны и для кого-то полезны.

    V>Как вам такая методика?


    Плохо.
    Чем дельфины хуже чего-то другого? Если внешнего критерия нет? Видимо, какой-то критерий подразумевается, просто ты его не высказал.
    Что значит "готов"? Я вижу два варианта:
    -- не, ну только не сегодня, у меня еще столько не доделано, книжка не дописана, смерть брата не отомщена, дети не довоспитанны. Т.е. некие незавершённые хвосты и планы (планы -- это тоже хвосты).
    -- внутренняя готовность сдаться

    Ты что имел ввиду?
    Судя по "остаются те виды деятельности, которые действительно важны и для кого-то полезны" -- первое. Но это, извини, полная херня. Я могу попробовать развернуть этот интуитивно ясный для меня тезис Но не уверен, что получится внятно.

    К>>Я бы вообще сказал, что польза так или иначе есть критерий личный

    V>Ага.

    Я бы даже сказал, что это критерий лишний. Понятие "польза" привнесено искусственно. Смотри, ты пользуешься очень локальными данными и утверждаешь, что результат почему-то в некотором смысле (в каком -- ты сам не знаешь) "полезен" глобально. А без этого предположения тебя локальный критерий не устраивает?

    К>>но главное, чтобы это было нужно самому человеку.

    V>

    Ну. И при чём тут польза человечеству, накой ты её приплёл?
    Делай что должно, и будь что будет
    Re[9]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 03.03.09 14:42
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Что значит "готов"? Я вижу два варианта:

    SH>-- не, ну только не сегодня, у меня еще столько не доделано, книжка не дописана, смерть брата не отомщена, дети не довоспитанны. Т.е. некие незавершённые хвосты и планы (планы -- это тоже хвосты).
    Именно этот. Только просьба с местью не перестараться.
    SH>-- внутренняя готовность сдаться

    К>>>Я бы вообще сказал, что польза так или иначе есть критерий личный

    V>>Ага.
    SH>Я бы даже сказал, что это критерий лишний. Понятие "польза" привнесено искусственно. Смотри, ты пользуешься очень локальными данными и утверждаешь, что результат почему-то в некотором смысле (в каком -- ты сам не знаешь) "полезен" глобально. А без этого предположения тебя локальный критерий не устраивает?

    Я действительно пользуюсь локальными данными. Других у меня нет и не может быть. Для того, чтобы я воспользовался какими-то нелокальными данными, я их как-то должен вгрузить в себя и... пользоваться уже локальными данными.

    У меня есть стойкое подозрение, что чувство долга — это именно тот орган, который принимает сигналы от мегаорганизмов, частями которых мы являемся, и превращает их желания в наши собственные. Когда этот орган работает хорошо (т.е. выдаёт чёткий непротиворечивый сигнал), человек не мучается вопросом относительно того, куды ему бечь. У него полная ясность на этот счёт, и никаких душевных сомнений. Более того, он уверен, что добровольно выбрал свой путь (кстати, так оно на самом деле и есть).

    Беда лишь в том, что чувство долга иногда обманывается само, иногда тянет человека в разные стороны, а иногда даёт себя обмануть
    В общем, так и живём...
    Re[10]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 03.03.09 15:15
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    SH>>-- не, ну только не сегодня, у меня еще столько не доделано, книжка не дописана, смерть брата не отомщена, дети не довоспитанны. Т.е. некие незавершённые хвосты и планы (планы -- это тоже хвосты).

    V>Именно этот. Только просьба с местью не перестараться.

    А чем дельфины не подходят?
    У планов должна быть какая-то характеристика. Видимо что-то из серии "что останется после меня". Похоже?

    Тогда я всё-таки разверну свой тезис. Дело в том, что такие планы продуцируются далеко не только чувством долга. И с долгом тоже сложнее, но это потом. Для начала хватит честолюбия, гнева, ревности, зависти. И это значит, что нужен другой принцип.

    V>Я действительно пользуюсь локальными данными. Других у меня нет и не может быть. Для того, чтобы я воспользовался какими-то нелокальными данными, я их как-то должен вгрузить в себя и... пользоваться уже локальными данными.


    Не спорю.

    V>У меня есть стойкое подозрение, что чувство долга — это именно тот орган, который принимает сигналы от мегаорганизмов, частями которых мы являемся, и превращает их желания в наши собственные. Когда этот орган работает хорошо (т.е. выдаёт чёткий непротиворечивый сигнал), человек не мучается вопросом относительно того, куды ему бечь. У него полная ясность на этот счёт, и никаких душевных сомнений. Более того, он уверен, что добровольно выбрал свой путь (кстати, так оно на самом деле и есть).


    Да!

    V>Беда лишь в том, что чувство долга иногда обманывается само, иногда тянет человека в разные стороны, а иногда даёт себя обмануть

    V>В общем, так и живём...

    Нееет.
    Надо немного прояснить с долгом. Чувство долга перед кем это тот самый орган, который принимает сигналы?
    Перед собой, только перед собой.
    А долгов-то сколько рекламируют! И перед семьёй, и перед страной, и перед родителями, и перед детьми, и долг "каждого честного человека", и "каждого уважающего себя человека", а также современного, продвинутого, клёвого. А ведут они все не туда. Правда, "долг перед собой" тоже может быть неправильно понят. Ну тогда подойдёт перед Богом -- это одно и то же в данном случае. Дон Хуан в этом месте очень кстати вспомнил бы безупречность воина.

    И планы, а так же готовность сдохнуть тут совсем не при чём. Смерть может прийти в любой момент, "ну только не сейчас" не очень работает. И польза тоже не причём. И человечество.




    Ладно, хватит играть в одни ворота. Месяц назад я как раз писал про то, зачем мы тут http://fat-crocodile.livejournal.com/102494.html
    Делай что должно, и будь что будет
    Re[11]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 04.03.09 13:49
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>И планы, а так же готовность сдохнуть тут совсем не при чём. Смерть может прийти в любой момент, "ну только не сейчас" не очень работает. И польза тоже не причём. И человечество.


    Во-первых, не "готовность сдохнуть", а "почему я не готов сдохнуть". Во-вторых, это всего лишь методика определения того, что тебе действительно ценно и важно. Можно, наверно, придумать и другую методику, менее брутальную.

    SH>А чем дельфины не подходят?


    Отвлекают от главного. Искомой самостоятельной пользой они быть не могут.

    SH>У планов должна быть какая-то характеристика. Видимо что-то из серии "что останется после меня". Похоже?


    Не похоже. Было несметное количество людей, после которых до сегодняшнего дня ничего видимого и ощутимого не осталось, но, тем не менее, жизнь свою они прожили очччччень даже не зря.

    SH>Тогда я всё-таки разверну свой тезис. Дело в том, что такие планы продуцируются далеко не только чувством долга. И с долгом тоже сложнее, но это потом. Для начала хватит честолюбия, гнева, ревности, зависти. И это значит, что нужен другой принцип.


    А также голод, жажда и т.п... Но это всё тактические моменты. Если кто-то их считает стратегическими задачами, то это глупость и самообман.

    SH>Надо немного прояснить с долгом. Чувство долга перед кем это тот самый орган, который принимает сигналы?

    SH>Перед собой, только перед собой.
    SH>А долгов-то сколько рекламируют! [...]

    Ага. Каждый уважающий себя пацан должен купить себе айфон. Выстроилась целая очередь алчных уродов, желающих подёргать за рычажок чувства долга. Моя методика тем и хороша, что фраза "Я не готов сегодня умереть потому, что я не успел похудеть" звучит совсем уж глупо.

    SH>Ладно, хватит играть в одни ворота. Месяц назад я как раз писал про то, зачем мы тут http://fat-crocodile.livejournal.com/102494.html


    Почитал. Спасибо. Но не вполне согласен с тем, что "Главная задача на этой Земле -- быть собой, продолжать быть собой, не прекращать быть собой ни на секунду."
    Быть собой, а не кем-то другим, это безусловно важно. Хотя бы из чисто эстетических соображений. Но на "смысл жизни", увы, не тянет.
    Re[12]: Несколько дурацких вопросов по теории информации
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 04.03.09 14:14
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, SergH, Вы писали:



    SH>>Ладно, хватит играть в одни ворота. Месяц назад я как раз писал про то, зачем мы тут http://fat-crocodile.livejournal.com/102494.html


    V>Почитал. Спасибо. Но не вполне согласен с тем, что "Главная задача на этой Земле -- быть собой, продолжать быть собой, не прекращать быть собой ни на секунду."

    V>Быть собой, а не кем-то другим, это безусловно важно. Хотя бы из чисто эстетических соображений. Но на "смысл жизни", увы, не тянет.

    А по-моему это просто взгляд с немного другой точки зрения на озвученную тобой "пользу". Точнее даже, по-моему, как раз польза и должна проистекать из этого "бытия собой".
    Re[12]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 04.03.09 14:16
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    SH>>А чем дельфины не подходят?

    V>Отвлекают от главного. Искомой самостоятельной пользой они быть не могут.

    Я всё пытаюсь дознаться, _почему_ они не могут быть пользой. Я даже предположил критерий, про "что-то остаться", он не прошёл. Ок, тогда ты объясни.

    V>А также голод, жажда и т.п... Но это всё тактические моменты. Если кто-то их считает стратегическими задачами, то это глупость и самообман.


    Ок.

    V>Ага. Каждый уважающий себя пацан должен купить себе айфон. Выстроилась целая очередь алчных уродов, желающих подёргать за рычажок чувства долга. Моя методика тем и хороша, что фраза "Я не готов сегодня умереть потому, что я не успел похудеть" звучит совсем уж глупо.


    Имхо, любая фраза, начинающая с "я не готов сегодня умереть потому что .." звучит глупо. И свидетельствует не о стратегических задачах и "пользе", а о незакрытых ситуациях, для завершения которых тебе зачем-то нужны внешние люди или время. Нахамил родителям и не извинился -- это надо решить. Говорить, что это смысл жизни?
    Делай что должно, и будь что будет
    Re[13]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 04.03.09 15:22
    Оценка:
    Здравствуйте, Курилка, Вы писали:

    К>А по-моему это просто взгляд с немного другой точки зрения на озвученную тобой "пользу". Точнее даже, по-моему, как раз польза и должна проистекать из этого "бытия собой".


    Извините, но если для человека "быть собой" — это значит подличать, воровать, максимально паразитировать, то он этим приносит пользу? Можно, конечно, сочинить какой-нибудь логический выверт и порассуждать на тему того, что даже законченный выродок приносит пользу хотя бы тем, что производит органические удобрения. Но мы это делать не будем, ладно?
    Re[14]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 04.03.09 16:32
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Извините, но если для человека "быть собой" — это значит подличать, воровать, максимально паразитировать, то он этим приносит пользу?


    А если это ему велит чувство долга?

    V>Можно, конечно, сочинить какой-нибудь логический выверт и порассуждать на тему того, что даже законченный выродок приносит пользу хотя бы тем, что производит органические удобрения. Но мы это делать не будем, ладно?


    Не будем. Вместо этого мы попытаемся всё-таки вывести на чистую воду скрытый до сих пор критерий пользы. Которому не удовлетворяют дельфины, Бора-Бора, воровство и паразитирование.
    Делай что должно, и будь что будет
    Re[13]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 04.03.09 16:56
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Я всё пытаюсь дознаться, _почему_ они не могут быть пользой.

    Потому что это нужно только тебе, а ты это с собой в могилу не возьмёшь. Это что касается самостоятельной пользы. Но кроме самостоятельной может быть ещё польза косвенная. Например, качественно и надолго улучшится настроение, и под это дело ты сможешь совершить множество геройских подвигов.

    SH>Имхо, любая фраза, начинающая с "я не готов сегодня умереть потому что .." звучит глупо. И свидетельствует не о стратегических задачах и "пользе", а о незакрытых ситуациях, для завершения которых тебе зачем-то нужны внешние люди или время. Нахамил родителям и не извинился -- это надо решить. Говорить, что это смысл жизни?


    "Я не готов сегодня умереть потому что тогда завтра моим детям будет нечего кушать" — звучит глупо?
    "Я не готов сегодня умереть потому что для моих родных и близких это будет большое горе" — так, фигня?
    "Я не готов сегодня умереть потому что от этого сразу рухнет несколько проектов, и некоторому количеству дорогих мне людей станет плохо" — это хрень собачья?
    "Я не готов сегодня умереть потому что не доделал и не передал в надёжные руки то дело, которое мечтаю замутить" — это, надеюсь, тоже не полный отстой.

    А разруливание обстоятельств типа "нахамил родителям и не извинился" тоже можно (скорее, нужно) сделать смыслом жизни. На день-два, не больше.
    Re[14]: Несколько дурацких вопросов по теории информации
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 04.03.09 17:06
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, Курилка, Вы писали:


    К>>А по-моему это просто взгляд с немного другой точки зрения на озвученную тобой "пользу". Точнее даже, по-моему, как раз польза и должна проистекать из этого "бытия собой".


    V>Извините, но если для человека "быть собой" — это значит подличать, воровать, максимально паразитировать, то он этим приносит пользу? Можно, конечно, сочинить какой-нибудь логический выверт и порассуждать на тему того, что даже законченный выродок приносит пользу хотя бы тем, что производит органические удобрения. Но мы это делать не будем, ладно?


    Т.е. у тебя есть некая "абсолютная" польза, по которой ты можешь судить о полезности других людей?
    Вроде выше ты соглашался с субъективностью этого понятия, или фразу твою фразу "Абсолютно с этим согласен." надо как-то иначе воспринимать?
    Что-то как-то я теряюсь...
    Re[14]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 04.03.09 17:14
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Потому что это нужно только тебе, а ты это с собой в могилу не возьмёшь.


    Во-первых, ты забыл про дельфинов. Ты слишком на человечестве сосредоточен.
    Во-вторых, "в могилу не возьмешь" это непроверяемое допущение.
    В-третьих, это примерно то, что я писал "должно что-то остаться снаружи". В материальном мире или в других людях.

    V>"Я не готов сегодня умереть потому что тогда завтра моим детям будет нечего кушать" — звучит глупо?


    Да.

    V>"Я не готов сегодня умереть потому что для моих родных и близких это будет большое горе" — так, фигня?


    Да.

    V>"Я не готов сегодня умереть потому что от этого сразу рухнет несколько проектов, и некоторому количеству дорогих мне людей станет плохо" — это хрень собачья?


    Да.

    V>"Я не готов сегодня умереть потому что не доделал и не передал в надёжные руки то дело, которое мечтаю замутить" — это, надеюсь, тоже не полный отстой.


    Напрасно.

    Это всё глупости потому что тебя никто не будет спрашивать. И ждать, пока ты скажешь "ну всё, можно и помирать". Твоё время может кончится в любой момент, и список незаконченных дел только помешает тебе. Так что это -- не постановка вопроса. Почти так же как любая фраза, начинающаяся с "Магический электронный дым покидает компьютер потому что ...".

    Делай что должен и будь что будет.

    V>А разруливание обстоятельств типа "нахамил родителям и не извинился" тоже можно (скорее, нужно) сделать смыслом жизни. На день-два, не больше.


    Нет. Смыслом стоит сделать недопущение разбалансировки.
    Делай что должно, и будь что будет
    Re[15]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 04.03.09 18:18
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Здравствуйте, Voblin, Вы писали:


    V>>Извините, но если для человека "быть собой" — это значит подличать, воровать, максимально паразитировать, то он этим приносит пользу?


    SH>А если это ему велит чувство долга?

    Какое там чувство долга? Лень, сила привычки, страх — в это я ещё поверю. А чувство долга — увольте.

    SH>Вместо этого мы попытаемся всё-таки вывести на чистую воду скрытый до сих пор критерий пользы. Которому не удовлетворяют дельфины, Бора-Бора, воровство и паразитирование.


    Эх, хорошо бы найти надёжную проверялку на тему "хорошо/плохо" и "полезно/бесполезно/вредно". Но, боюсь, с этим небольшой облом. Полная субъективщина.
    Re[16]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 04.03.09 18:37
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>>>Извините, но если для человека "быть собой" — это значит подличать, воровать, максимально паразитировать, то он этим приносит пользу?


    SH>>А если это ему велит чувство долга?

    V>Какое там чувство долга? Лень, сила привычки, страх — в это я ещё поверю. А чувство долга — увольте.

    Точно так же я могу ответить "какое там быть собой". Лень, сила привычки, страх... и далее.
    Вполне в духе слова в защиту эгоизма
    Так что ответ не засчитывается. Либо снимай исходное сомнение

    V>Эх, хорошо бы найти надёжную проверялку на тему "хорошо/плохо" и "полезно/бесполезно/вредно". Но, боюсь, с этим небольшой облом. Полная субъективщина.


    Понимаешь, в чём проблема. Ты пытаешься распространить его все случаи. Ну там "воровать всегда плохо". А если я спасаю этим своих детей? А ворую у Билла Гейтса? Подло ворую. Паразитирую на нём просто таки. Не заплатил за Ворд, а использую.
    Делай что должно, и будь что будет
    Re[10]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 04.03.09 21:23
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>У меня есть стойкое подозрение, что чувство долга — это именно тот орган, который принимает сигналы от мегаорганизмов, частями которых мы являемся, и превращает их желания в наши собственные.


    Да, ещё один вопрос. Что у на с мета-мета организмами?
    Чувство долга по отношению к кому должно руководить? Потому что явных уровней несколько. Я -- семья -- родные -- знакомые -- соотечественники -- человечество -- ... ? И нет никаких причин останавливаться на человечестве. Точнее, я не вижу таких причин, если они есть -- озвучь, интересно. ... -- биосфера Земли -- Земля -- Солнечная система -- Вселенная -- ...? Тут проходит граница материального мира, условно остановимся.

    Очевидно, что интересы семьи могут не совпадать с интересами соотечественников. Кому хранить верность в этом случае, согласно твоей модели?
    Делай что должно, и будь что будет
    Re[17]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 06.03.09 14:32
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Точно так же я могу ответить "какое там быть собой". Лень, сила привычки, страх... и далее.

    SH>Вполне в духе слова в защиту эгоизма
    SH>Так что ответ не засчитывается. Либо снимай исходное сомнение

    Будешь смеяться, но чаще всего стремление "быть собой" продиктовано именно ленью, силой привычки и страхом. Кстати, не могу до конца понять суть истинного "быть собой". Поможешь?

    За ссылку спасибо. "Таких псевдоэгоистов легко узнать по вечной тоске в глазах и отличному загару." — вообще мегазачёт

    SH>Понимаешь, в чём проблема. Ты пытаешься распространить его все случаи. Ну там "воровать всегда плохо". А если я спасаю этим своих детей? А ворую у Билла Гейтса? Подло ворую. Паразитирую на нём просто таки. Не заплатил за Ворд, а использую.


    Понимаю. Сказал же, что субъективщина.
    Re[15]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 06.03.09 14:37
    Оценка:
    Здравствуйте, Курилка, Вы писали:

    К>Т.е. у тебя есть некая "абсолютная" польза, по которой ты можешь судить о полезности других людей?


    Причём здесь другие люди? Мне вполне достаточно, того, что я знаю, зачем живу я. А зачем живёшь ты и другие уважаемые оппоненты, сам я не знаю, а спросить стесняюсь.
    Re[18]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 06.03.09 14:39
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Будешь смеяться, но чаще всего стремление "быть собой" продиктовано именно ленью, силой привычки и страхом.


    Обратно, чаще всего чувством долга называют какую-то фигню

    V>Кстати, не могу до конца понять суть истинного "быть собой". Поможешь?


    Всё что знал, всё написал

    Тут есть две тенденции. "Чувство долга" рискует свалиться в абсолютизацию долга перед некоторой группой. Не дойти до конца "вширь". А "быть собой" рискует не дойти "вглубь" и оказаться "быть телом" или "быть разумом".

    V>За ссылку спасибо. "Таких псевдоэгоистов легко узнать по вечной тоске в глазах и отличному загару." — вообще мегазачёт


    Рекомендую этого автора. Авраам Болеславович Покой жжот почти каждым постом.
    Делай что должно, и будь что будет
    Re[15]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 06.03.09 15:38
    Оценка:
    Здравствуйте, SergH, Вы писали:

    V>>"Я не готов сегодня умереть потому что тогда завтра моим детям будет нечего кушать" — звучит глупо?

    SH>Да.

    Упс... Можно это "да" раскрыть подробнее? Мне почему-то кажется, что забота о своих детях — это безусловная ценность, обусловленная самой глубинной моей сутью. И кроме того, что я это осознаю, я это ещё и чувствую. Более того, это мне нравится!

    SH>Это всё глупости потому что тебя никто не будет спрашивать. И ждать, пока ты скажешь "ну всё, можно и помирать".


    Не понятна логика. Ну и что с того, что нет этого спрашивающего/ждущего?

    SH>Твоё время может кончится в любой момент, и список незаконченных дел только помешает тебе.


    Список незаконченных дел не мешает. Он помогает жить и поддерживать бодрое и благодушное состояние. А когда помру, тем более не помешает.

    SH>Делай что должен и будь что будет.


    Хорошая фразочка. Проблема в том, что она особенно хороша для врачевания душ рабов и солдат. Для всех хороша, но для рабов и солдат — особенно.
    Re[11]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 06.03.09 15:55
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Да, ещё один вопрос. Что у на с мета-мета организмами?

    SH>Чувство долга по отношению к кому должно руководить? Потому что явных уровней несколько.

    Не несколько, а много. И даже не уровней. Всё как всегда так переплетено, что не нужно даже пытаться выстраивать иерархию.
    Кстати, мы, многоклеточные, тоже в некотором смысле являемся метаорганизмами.

    SH>Очевидно, что интересы семьи могут не совпадать с интересами соотечественников. Кому хранить верность в этом случае, согласно твоей модели?


    Вот так и крутимся. Кто сказал, что всё должно быть просто и однозначно?
    Re[19]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 06.03.09 16:02
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>[...]


    Со всем, что сказано, согласен.

    SH>Рекомендую этого автора. Авраам Болеславович Покой жжот почти каждым постом.


    ОК. Буду читать. Ещё раз спасибо.
    Re[17]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 09.03.09 09:45
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>"Магический электронный дым покидает компьютер потому что <вставьте сюда что-нибудь святое, можно про детей>"


    Про "Магический электронный дым" не понял. Если это ссылка на какой-то известный прикол или маразм, то Яндекс его не находит. Поиск по RSDN тоже ничего не даёт.

    SH>А, тогда попробуй разобраться со словом "готов" в фразе "я не готов сегодня умереть потому что ...".

    SH>Я правильно понимаю, что без потери точности фразу можно переформулировать как:
    SH>"Моя жизнь ценна потому что ..."

    Не совсем точно. Дело в том, что иногда (слава богу, у меня это бывает не так уж часто) всё настолько задалбывает, что думаешь: "Поскорее бы сдохнуть". А нельзя, потому что... Ну, в общем, отсюда и взялась методика поиска своего и только своего смысла жизни. Кстати, комплекс задалбывающих факторов не является необходимым условием. Просто я раскрываю историю возникновения методики.

    SH>Дальше я могу порекомендовать для ознакомления книгу Иова, она описывает библейскую точку зрения на то, что с такими бывает


    Книга Иова раскрывает ту мысль, что Бог — не продавщица в пивном ларьке. К нему нельзя прийти и сказать, что я соблюдал все заповеди, соблюдал все обряды, и поэтому вынь да положь причитающиеся мне блага и огради от бед. В иудеохристианской (думаю, и в исламской тоже) религиозной традиции считается, что возможность служения Богу — это уже и есть то самое благо, к которому должен стремиться человек. Это очень глубокая мысль, и я с ней не могу не согласиться. Даже не смотря на то, что являюсь человеком неопределённой религиозной ориентации.

    SH>>>Делай что должен и будь что будет.

    V>>Хорошая фразочка. Проблема в том, что она особенно хороша для врачевания душ рабов и солдат. Для всех хороша, но для рабов и солдат — особенно.
    SH>??
    SH>Это же ты как раз про долг писал ??
    SH>Это должна быть твоя фраза

    Писал. Было дело. Но проблема в том, что долги наши разнообразны и противоречивы. Просто брать и "делать что должен" можно лишь в самых примитивных случаях (рабам и солдатам в этом плане очень "повезло"). В реальной жизни свободного человека приходится с разной степенью успешности вести постоянную работу по выявлению этих самых долгов, расстановке и перераспределению приоритетов, разрешению противоречий, анализу результатов, прогнозированию эффектов. В общем, всё сложно и хлопотно. Как говорил Гиппократ, "жизнь коротка, путь искусства долог, удобный случай скоропреходящ, опыт обманчив, суждение трудно". Многим это настолько тяжко, что они либо сами лишают себя свободы действий (добровольное рабство, армия), либо лишают себя свободы духа (уход в религию).
    Re[12]: Несколько дурацких вопросов по теории информации
    От: goto Россия  
    Дата: 09.03.09 14:07
    Оценка:
    Здравствуйте, Voblin, Вы писали:
    ...

    Во-первых, хочу от лица прогрессивной общественности поблагодарить админов за то, что еще не снесли тему в СВ.

    V>Во-первых, не "готовность сдохнуть", а "почему я не готов сдохнуть". Во-вторых, это всего лишь методика определения того, что тебе действительно ценно и важно. Можно, наверно, придумать и другую методику, менее брутальную.


    Во-вторых, про "готовность сдохнуть". В качестве иллюстрации, можно вспомнить идеологию, в которой тема "сдохнуть" сформулирована максимально завершенно и недвусмысленно, — это самурайское "всегда выбирай смерть". Если немного копнуть, то можно догадаться, что это вовсе не "культ смерти". Здесь наоборот заложено максимально мощное жизненное начало — жить так, чтобы... Мы конечно не самураи, но подумать над этим тоже можем.

    В списке "почему я не готов сдохнуть" как раз с высокой вероятностью окажутся вещи, которые прямо или очень опосредовано нам мешают. Это тоже тема для размышлений.

    Может показаться, что все зависит от личных философских/религиозных взглядов. Но если вдуматься, то не зависит.
    Re[13]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 09.03.09 15:20
    Оценка:
    Здравствуйте, goto, Вы писали:

    G>Во-первых, хочу от лица прогрессивной общественности поблагодарить админов за то, что еще не снесли тему в СВ.

    Присоединяюсь.

    G>В списке "почему я не готов сдохнуть" как раз с высокой вероятностью окажутся вещи, которые прямо или очень опосредовано нам мешают. Это тоже тема для размышлений.

    Мешают чему? Предаваться безделью? Настоящее безделье мало радости приносит. Чему ещё могут помешать "вещи" из списка?
    Re[14]: Несколько дурацких вопросов по теории информации
    От: goto Россия  
    Дата: 09.03.09 16:45
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, goto, Вы писали:

    ...
    G>>В списке "почему я не готов сдохнуть" как раз с высокой вероятностью окажутся вещи, которые прямо или очень опосредовано нам мешают. Это тоже тема для размышлений.
    V>Мешают чему? Предаваться безделью? Настоящее безделье мало радости приносит. Чему ещё могут помешать "вещи" из списка?

    Безделье я совсем не имел в виду. Из тех утверждений совершенно не следует, что надо что-то делать или не делать. Просто это была яркая, как мне кажется, иллюстрация, другой подход. Буквально переубедить я не пытаюсь, у меня это не получится .
    Re[15]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 09.03.09 17:28
    Оценка:
    Здравствуйте, goto, Вы писали:

    G>Безделье я совсем не имел в виду.

    Я догадываюсь

    G>Из тех утверждений совершенно не следует, что надо что-то делать или не делать. Просто это была яркая, как мне кажется, иллюстрация, другой подход. Буквально переубедить я не пытаюсь, у меня это не получится .

    Я думаю, переубедить не получится в основном потому, что мы говорим об одних и тех же вещах, расходясь в малосущественных деталях и формулировках.
    Re[18]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 09.03.09 23:35
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Про "Магический электронный дым" не понял. Если это ссылка на какой-то известный прикол или маразм, то Яндекс его не находит. Поиск по RSDN тоже ничего не даёт.


    Это была цитата по памяти из http://fregimus.livejournal.com/41385.html
    Но главное для меня было, что "любая фраза, начинающаяся с ХХХ скорее всего является бредом", к точности цитирования и скрытым смыслам я не стремился.

    V>Не совсем точно. Дело в том, что иногда (слава богу, у меня это бывает не так уж часто) всё настолько задалбывает, что думаешь: "Поскорее бы сдохнуть". А нельзя, потому что... Ну, в общем, отсюда и взялась методика поиска своего и только своего смысла жизни. Кстати, комплекс задалбывающих факторов не является необходимым условием. Просто я раскрываю историю возникновения методики.


    Я для начала извинюсь. В мои планы не входило обсуждать тебя и твою жизнь, я бы ограничился теорией. Поскольку я гораздо умнее в теории, чем на практике, я "из жизни" примеров благоразумно не привожу... Но я всё же осторожно влезу грязными руками.

    Смотри. Ты, исчерпав внутренние факторы, ищешь какую-то внешнюю ценность. Своими неправильными действиями загнал себя в тупик, у тебя кончилась энергия. Чтобы выбраться из тупика ты прибегаешь к стандартному (для себя) допингу: мотивация через внешние ценности. Друзья, дети, родные, след в истории. Всем им нужен я, а я их люблю, поэтому для них я постараюсь, и себя и жопы вытащу. И, как завязший в болоте танк, закинул на берег тросик, включил лебёдочку и вытащил себя. Лебёдка цепляется к детям, родным, друзьям.

    Ладно, в трудную минуту всё бывает. Это работающий способ, вполне. Но считать это мерилом -- как делать из довольно вредного антидепрессанта норму.

    Что здесь плохо:
    — ты это делаешь ломая себя. Лебёдка тянет тебя не туда, куда надо тебе, а туда, где есть за что зацепиться. Может возникнуть ситуация, когда желание кормить детей станет поперёк совести, зовущей тебя на баррикады. Это я привёл случай сильного осознаваемого противоречия. По мелочи оно может противоречить часто и незаметно.
    — дети вырастут, друзья и родные поредеют, след в истории уже будет оставлен на века. А привычка к допингу сохранится. И в тяжёлую минуту он тебе уже не сможет помочь. Деревья, к которым ты всегда привязывал трос, обломятся. И очень сложно тебе будет в этот момент.

    V>Книга Иова раскрывает ту мысль, что Бог — не продавщица в пивном ларьке. К нему нельзя прийти и сказать, что я соблюдал все заповеди, соблюдал все обряды, и поэтому вынь да положь причитающиеся мне блага и огради от бед. В иудеохристианской (думаю, и в исламской тоже) религиозной традиции считается, что возможность служения Богу — это уже и есть то самое благо, к которому должен стремиться человек. Это очень глубокая мысль, и я с ней не могу не согласиться. Даже не смотря на то, что являюсь человеком неопределённой религиозной ориентации.


    Согласен с толкованием.

    V>Писал. Было дело. Но проблема в том, что долги наши разнообразны и противоречивы. Просто брать и "делать что должен" можно лишь в самых примитивных случаях (рабам и солдатам в этом плане очень "повезло"). В реальной жизни свободного человека приходится с разной степенью успешности вести постоянную работу по выявлению этих самых долгов, расстановке и перераспределению приоритетов, разрешению противоречий, анализу результатов, прогнозированию эффектов. В общем, всё сложно и хлопотно. Как говорил Гиппократ, "жизнь коротка, путь искусства долог, удобный случай скоропреходящ, опыт обманчив, суждение трудно". Многим это настолько тяжко, что они либо сами лишают себя свободы действий (добровольное рабство, армия), либо лишают себя свободы духа (уход в религию).


    Рабов и солдат можно воспитывать только искусственно сузив область действия фразы. Т.е. сводя её к "выполняй приказ и будь что будет". Но это совсем про другое. Шахматист думает, как ему выиграть, а политик -- выиграть ему и проиграть. Солдат думает, как ему выполнить приказ, но есть ещё вопрос о должности выполнения приказа.

    Орган, который решает, что "должно" находится внутри, нельзя делегировать это никому. Нельзя в первую очередь потому что невозможно, этот орган всё равно есть, и ни куда он не девается. Попытка сделать вид, что решает кто-то другой -- притворство, неприятное и плохо заканчивающееся. Это как делегировать обоняние, осязание или вкус.
    Делай что должно, и будь что будет
    Re[19]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 10.03.09 13:15
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Но главное для меня было, что "любая фраза, начинающаяся с ХХХ скорее всего является бредом", к точности цитирования и скрытым смыслам я не стремился.


    Остаётся всё таки понять, чем моя фраза сходна с "магическим дымом", и дело в шляпе.

    SH>...Но я всё же осторожно влезу грязными руками.

    Нет проблем. Я только буду слегка поправлять неточности.

    SH>Смотри. Ты, исчерпав внутренние факторы, ищешь какую-то внешнюю ценность. Своими неправильными действиями загнал себя в тупик, у тебя кончилась энергия.

    Какой такой тупик? Есть масса реализованных и пока не реализованных желаний, энергии пока хватает. Не хватает чаще всего времени, но грех жаловаться. Состояние скуки (эх, давно же это было!) я переношу значительно хуже чем состояние цейтнота.

    SH>Чтобы выбраться из тупика ты прибегаешь к стандартному (для себя) допингу: мотивация через внешние ценности.

    Если я впускаю внешнюю ценность в себя (а как иначе? альтернатива этому — полный аутизм и абыяковость до життя), то где провести границу между внутренними факторами и внешними ценностями?

    Вопрос о проведении границы "я — не я" значительно сложнее, чем кажется на первый взгляд. Даже физическую границу провести трудно. Мой мозг — это часть меня? Похоже, что да. Моя рука — часть меня? Наверно, тоже. Допустим, решил я забить гвоздь. Рукой я этого сделать не могу, беру молоток. Молоток временно становится частью меня. По крайней мере, я управляю им как продолжением своей руки. А если я управляю автомобилем? А если я управляю коллективом?
    А если я сам часть коллектива? Какие свои действия я могу считать своими собственными, а в каких я всего лишь являюсь чьим-то орудием? Должен ли я стремиться к тому, чтобы 100% того, что я делаю, было бы исключительно моими действиями? Ситуация: подъезжаю к пешеходному переходу, на нём тётенька с колясочкой. Должен ли я тормозить, тем самым позволяя каким-то глупым правилам дорожного движения нагло манипулировать собой?
    Я был знаком с человеком, который настолько любил свою индивидуальность, что стремился всячески максимизировать свою непредсказуемость и неуправляемость. И в этом плане был чрезвычайно предсказуем И неплохо управляем "от обратного".

    SH>Что здесь плохо:

    SH>- ты это делаешь ломая себя. Лебёдка тянет тебя не туда, куда надо тебе, а туда, где есть за что зацепиться. Может возникнуть ситуация, когда желание кормить детей станет поперёк совести, зовущей тебя на баррикады. Это я привёл случай сильного осознаваемого противоречия. По мелочи оно может противоречить часто и незаметно.

    Беда в том, что противоречий действительно много. И нельзя сказать, что они все между внутренними факторами и внешними ценностями. Как правило, и лебедь, и рак, и щука — все мои любимые аспекты моего драгоценного "я".

    SH>- дети вырастут, друзья и родные поредеют, след в истории уже будет оставлен на века. А привычка к допингу сохранится. И в тяжёлую минуту он тебе уже не сможет помочь. Деревья, к которым ты всегда привязывал трос, обломятся. И очень сложно тебе будет в этот момент.


    Жуть

    Какая, в сущности, смешная вышла жизнь.
    Хотя, что может быть красивее,
    Чем сидеть на облаке и свесив ножки вниз
    Друг друга называть по имени.

    (с) Високосный год


    SH>Орган, который решает, что "должно" находится внутри, нельзя делегировать это никому. Нельзя в первую очередь потому что невозможно, этот орган всё равно есть, и ни куда он не девается.

    Нельзя, но если очень хочется, то можно. Некоторым это таки удаётся сделать.
    Re[20]: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 10.03.09 18:59
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Остаётся всё таки понять, чем моя фраза сходна с "магическим дымом", и дело в шляпе.


    Тем что это тоже не постановка вопроса.

    SH>>Смотри. Ты, исчерпав внутренние факторы, ищешь какую-то внешнюю ценность. Своими неправильными действиями загнал себя в тупик, у тебя кончилась энергия.

    V>Какой такой тупик?

    Локальный

    Дело в том, что иногда (слава богу, у меня это бывает не так уж часто) всё настолько задалбывает, что думаешь: "Поскорее бы сдохнуть".


    SH>>Чтобы выбраться из тупика ты прибегаешь к стандартному (для себя) допингу: мотивация через внешние ценности.

    V>Если я впускаю внешнюю ценность в себя (а как иначе? альтернатива этому — полный аутизм и абыяковость до життя), то где провести границу между внутренними факторами и внешними ценностями?

    Всё-то тебе формально надо. Зачем? Ну можно предположить, что привязанное тросом дерево становится частью танка, или попросить выдать определение танка, исключающее такой терминологический казус. Но я просто не вижу в этом смысла. Я вроде, довольно понятную метафору привёл.

    Тем более, ты сам всё точно различаешь. Это _ты_ думаешь "вот бы _мне_ сдохнуть". Не включая сюда ни родных, ни друзей, ни детей. А потом ты думаешь о _других_ из-за которых это нельзя...

    V>Вопрос о проведении границы "я — не я" значительно сложнее, чем кажется на первый взгляд. Даже физическую границу провести трудно. Мой мозг — это часть меня? Похоже, что да. Моя рука — часть меня? Наверно, тоже. Допустим, решил я забить гвоздь. Рукой я этого сделать не могу, беру молоток. Молоток временно становится частью меня. По крайней мере, я управляю им как продолжением своей руки. А если я управляю автомобилем? А если я управляю коллективом?


    Давай не сваливаться в солипсизм. Молоток всё-таки не становится частью тебя.

    V>А если я сам часть коллектива? Какие свои действия я могу считать своими собственными, а в каких я всего лишь являюсь чьим-то орудием? Должен ли я стремиться к тому, чтобы 100% того, что я делаю, было бы исключительно моими действиями? Ситуация: подъезжаю к пешеходному переходу, на нём тётенька с колясочкой. Должен ли я тормозить, тем самым позволяя каким-то глупым правилам дорожного движения нагло манипулировать собой?


    Нет, не должен. Это должно быть твоё решение, принятое с осознанием ситуации и рисков. А ещё лучше -- без осознания, но по совести

    V>Я был знаком с человеком, который настолько любил свою индивидуальность, что стремился всячески максимизировать свою непредсказуемость и неуправляемость. И в этом плане был чрезвычайно предсказуем И неплохо управляем "от обратного".


    Ну, он просто придумал себе обратные правила, которым тупо подчинялся.

    V>Беда в том, что противоречий действительно много. И нельзя сказать, что они все между внутренними факторами и внешними ценностями. Как правило, и лебедь, и рак, и щука — все мои любимые аспекты моего драгоценного "я".


    Я где-то сказал, что будет легко? Это я оговорился, видимо.
    Я сказал, что предложенный тобой критерий -- это плохой критерий. Не более.

    V>Жуть

    V>

    Какая, в сущности, смешная вышла жизнь.
    V>Хотя, что может быть красивее,
    V>Чем сидеть на облаке и свесив ножки вниз
    V>Друг друга называть по имени.

    V>(с) Високосный год


    Не вопрос, кончится всё хорошо. Только перед этим будет довольно неприятный процесс.

    V>Нельзя, но если очень хочется, то можно. Некоторым это таки удаётся сделать.


    Не удаётся. Некоторым удаётся убедить себя, что. Но тайное накапливается и всегда становится явным, как учил нас дедушка Фрейд. Против природы можно возражать, но это неприятно и в любом случае не на долго. Тем более -- против самой сути.
    Делай что должно, и будь что будет
    Re[2]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: depth  
    Дата: 12.03.09 09:23
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, друзья, вы много писали, и поэтому настало время всё накопленное обобщить и подытожить.


    не нашел в итогах что дальше?

    V>

    V>Теперь немножко поотвечаю на свои же вопросы.

    V>>У информации весьма сложные взаимоотношения с объективной реальностью. [...] Несмотря на то, что, казалось бы, информация может объективно существовать, объективность её существования — под большим вопросом.

    V>Ничего подобного! Та информация, которая существует, существует вполне даже объективно. Но для существования информации нужен контекст. "Повести Белкина" существуют в контексте русской литературы, и поэтому для нас, подключённых к этому контексту, они существуют объективно.
    V>А для текстов ронго-ронго культурный контекст утрачен, и поэтому они теперь влачат своё существование только в контексте археологии и музейного дела.

    М.б. для продолжения банкета определить контекст ?

    V>>Вопрос: откуда информация берётся, если не существует операций, увеличивающих количество информации, зато есть масса обстоятельств, при которых она исчезает?

    V>Она поступает через датчики (в биологии они называются рецепторами) на вход систем, умеющих информацию обрабатывать. Откуда она там, во вне, берётся? Возможно несколько вариантов:
    V>1. Её туда кто-то положил (здесь мы, правда, становимся персонажами анекдота про Мойшу, его жену, деньги и тумбочку).
    V>2. А её там и не было . Есть великий и прекрасный реальный мир, воздействующий на наши органы чувств, но то, что мы через них получаем, никто в виде информации нам не передавал. Свет Полярной звезды становится информацией о направлении на север только в контексте наших скудных познаний в астрономии и желания сориентироваться на местности.

    V>>В общем случае информационные объекты нельзя точно локализовать ни в пространстве, ни во времени.

    V>Ну да. Ну и что здесь удивительного, если информационные объекты не являются частью физической реальности? Это ж только физические объекты (вещество и энергия) должны быть как-то локализованы в пространстве-времени.

    V>>Похоже, что сама суть понятия "информация" прошита куда-то вглубь структуры пространства-времени.

    V>Ничего подобного. Чушь.

    V>>Оставаясь в рамках позитивной науки, можно с некоторой долей уверенности выделить следующие свойства информации:

    V>>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии.
    V>Ага. Кстати, этот физический носитель можно назвать информационным каналом. Иногда — из прошлого в будущее.

    Или, например, для дальнейшего исследования ограничиться только человеком в кач-ве носителя и обработчика информации?

    V>>2. Из точки А информация не может поступить в точку Б если между ними нет информационного канала.

    V>В принципе да, но есть маленькое осложнение, связанное с тем, что "в общем случае информационные объекты нельзя точно локализовать ни в пространстве, ни во времени".

    V>>Какие ещё у информации есть свойства?

    V>3. Информационный процесс инвариантен относительно способа его реализации.
    V>И это, наверно, главное свойство информации.
    Re[33]: Несколько дурацких вопросов по теории информации
    От: Sinclair Россия https://github.com/evilguest/
    Дата: 12.03.09 10:13
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V>Суть изначального замечания была в том, я не представляю, как этот непрерывный ряд снимать, что с ним потом делать, а самое главное — с какой целью?

    Твоя ошибка в том, что ты хочешь что-то зачем-то "снимать". Это всё равно что считать непрерывные сигналы заранее несуществуюшими — ты же всё равно его через цифровой датчик в компьютер втаскивать будешь
    V>Потому обратил внимание, что речь всё-равно идёт о дискретном преобразовании (по дискретной сетке частот).

    V>Ну нам же разложенный сигнал надо как-то принимать/обрабатывать?

    А в аналоговом случае ничего дискретного не нужно. Вот мы взяли исходный сигнал, применили к нему преобразователь Фурье в виде диф.решетки. Теперь у нас есть частотная характеристика — мы можем работать уже с ней. К примеру, поставим некий сложной формы фильтр. А после него — обратный преобразователь Фурье. Вот тебе аналоговое решение аналоговой задачи. В аналоговой схеме просто все компоненты аналоговые. В реальных схемах народ отжигает так, что только диву даешься — ведь есть не только линейные эффекты. К примеру, есть вполне удачные аналоговые схемы для построения сверхкоротких лазерных импульсов. Например, есть схема усиления сигнала, где сначала импульс искусственно растягивается, чтобы понизить мгновенную мощность до приемлемой для усилителя, затем усиливается, а затем сжимается обратно. Естественно, никаких "снятий непрерывного ряда" в середине нету — не бывает такой техники, чтобы с нужной скоростью работала.
    ... << RSDN@Home 1.2.0 alpha rev. 677>>
    Уйдемте отсюда, Румата! У вас слишком богатые погреба.
    Re[3]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 12.03.09 10:53
    Оценка:
    Здравствуйте, depth, Вы писали:

    V>>Ничего подобного! Та информация, которая существует, существует вполне даже объективно. Но для существования информации нужен контекст. "Повести Белкина" существуют в контексте русской литературы, и поэтому для нас, подключённых к этому контексту, они существуют объективно.


    D>М.б. для продолжения банкета определить контекст ?


    Боюсь, мы на этом пути быстро сойдём с ума
    Ладно, где наша не пропадала. Я сейчас не готов дать определение понятия "контекст". Но можно высказать несколько соображений, которые, возможно, помогут к нему приблизиться.
    1. Информация без контекста существовать не может. Если приёмник сигнала не имеет никакой информации относительно того, что ему можно и/или нужно делать с сигналом, то он не сможет извлечь из сигнала никакую информацию.
    2. Контекст имеет информационную природу. По сути, он сам является информацией, которая без контекста существовать не может. Таким образом, входим в рекурсию. Стоит ли этого пугаться? Думаю, не стоит.
    3. Контекст, как и всякая прочая информация, может быть не локализован в пространстве/времени.

    D>Или, например, для дальнейшего исследования ограничиться только человеком в кач-ве носителя и обработчика информации?


    Вокруг этого утверждения уже сломано здесь немало копий. Выяснили, что это не только бесполезно, но и весьма опасно.
    Re[4]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: depth  
    Дата: 13.03.09 09:03
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, depth, Вы писали:


    V>>>Ничего подобного! Та информация, которая существует, существует вполне даже объективно. Но для существования информации нужен контекст. "Повести Белкина" существуют в контексте русской литературы, и поэтому для нас, подключённых к этому контексту, они существуют объективно.


    D>>М.б. для продолжения банкета определить контекст ?


    V>Боюсь, мы на этом пути быстро сойдём с ума

    V>Ладно, где наша не пропадала. Я сейчас не готов дать определение понятия "контекст". Но можно высказать несколько соображений, которые, возможно, помогут к нему приблизиться.
    V>1. Информация без контекста существовать не может. Если приёмник сигнала не имеет никакой информации относительно того, что ему можно и/или нужно делать с сигналом, то он не сможет извлечь из сигнала никакую информацию.
    V>2. Контекст имеет информационную природу. По сути, он сам является информацией, которая без контекста существовать не может. Таким образом, входим в рекурсию. Стоит ли этого пугаться? Думаю, не стоит.
    V>3. Контекст, как и всякая прочая информация, может быть не локализован в пространстве/времени.

    Я имел в виду, что можно попробовать взять и определить какой-то контекст навскидку и потом посмотреть, как он ложится в теорию. Например, создание, хранение и обработка информации человеком и компьютером (чтобы быть поближе к нашим баранам .

    D>>Или, например, для дальнейшего исследования ограничиться только человеком в кач-ве носителя и обработчика информации?


    V>Вокруг этого утверждения уже сломано здесь немало копий. Выяснили, что это не только бесполезно, но и весьма опасно.


    Ограничиться — не значит принять, что других носителей не может существовать, а просто рассматривать информационные свойства и взаимодействия вокруг человека и определенного контекста.
    Re[5]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 13.03.09 18:49
    Оценка:
    Здравствуйте, depth, Вы писали:

    D>Я имел в виду, что можно попробовать взять и определить какой-то контекст навскидку и потом посмотреть, как он ложится в теорию. Например, создание, хранение и обработка информации человеком и компьютером (чтобы быть поближе к нашим баранам .


    Навскидку — легко. Везде, где есть нечто, что можно трактовать как информацию, можно найти контекст, без которого это нечто представляет собой просто "так сложившуюся" комбинацию вещества и энергии.
    Примеры:
    1. Информация о наличии информации. Ты смотришь сейчас на экран. Зачем? Видимо, ты подозреваешь, что фотончики, прилетающие с этого направления, несут в себе какую-то информацию. Т.е. для того, чтобы считать информацию с сигнала, тебе нужна информация о том, что в этом сигнале информация может содержаться.
    2. Знаковая система. Ты сейчас читаешь текст на русском языке. Все используемые в этом тексте термины тебе знакомы. Если бы ты не знал русского языка, в этом тексте для тебя не было бы той информации, которую ты получаешь сейчас.
    3. И ещё куча всяких контекстов, характеризующих актуальность, полезность, достоверность информации.

    Что касается "наших баранов", то у них тоже образуется очень мощное хитросплетение информации и контекстов. Например, для контроллера жёсткого диска EXEшник — всего лишь поток байт, который нужно передать в ОП, для процессора — поток команд, для обрабатываемых данных — контекст обработки данных, для HEX-редактора — сами обрабатываемые данные. А где-то внутри процессора сидит аналог машины Тьюринга — микропрограмма и железная логика, управляющие друг другом с сумасшедшей тактовой частотой.
    Re[6]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: SergH Россия  
    Дата: 13.03.09 18:57
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Что касается "наших баранов", то у них тоже образуется очень мощное хитросплетение информации и контекстов. Например, для контроллера жёсткого диска EXEшник — всего лишь поток байт, который нужно передать в ОП, для процессора — поток команд..


    Отличный пример!
    Для процессора это поток команд, даже если программист подсунул ему "войну и мир".

    Возможность создания контекста как признак жизни? Хотя, нейронные сети всякие...
    Делай что должно, и будь что будет
    Re[6]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: depth  
    Дата: 14.03.09 11:56
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, depth, Вы писали:


    D>>Я имел в виду, что можно попробовать взять и определить какой-то контекст навскидку и потом посмотреть, как он ложится в теорию. Например, создание, хранение и обработка информации человеком и компьютером (чтобы быть поближе к нашим баранам .


    V>Навскидку — легко. Везде, где есть нечто, что можно трактовать как информацию, можно найти контекст, без которого это нечто представляет собой просто "так сложившуюся" комбинацию вещества и энергии.

    V>Примеры:
    V>1. Информация о наличии информации. Ты смотришь сейчас на экран. Зачем? Видимо, ты подозреваешь, что фотончики, прилетающие с этого направления, несут в себе какую-то информацию. Т.е. для того, чтобы считать информацию с сигнала, тебе нужна информация о том, что в этом сигнале информация может содержаться.
    V>2. Знаковая система. Ты сейчас читаешь текст на русском языке. Все используемые в этом тексте термины тебе знакомы. Если бы ты не знал русского языка, в этом тексте для тебя не было бы той информации, которую ты получаешь сейчас.
    V>3. И ещё куча всяких контекстов, характеризующих актуальность, полезность, достоверность информации.

    Как мне кажется это слишком узкие контексты
    Что если, например, сказать, что у меня есть глаза, уши, нос, руки и язык и поэтому я могу воспринимать соответствующую информацию. А потом добавить, что если я взаимодействую с компутером, то использую только глаза и уши, ну еще руки и язык для ввода информации (хотя верю, что скоро можно будет и запахами обмениваться по интернету . Тогда получается, что у меня есть зрительные и звуковые ощущения, которые в мозгу трансформируются в различную информацию. Применяя компьютерную терминологию (поскольку кодировка в человеческом мозгу неизвестна) эта информация, чтобы ей могли обмениваться человек и компьютер, может быть текстом, видео и звуком (ничего не забыл?). Есть у этого контекста новые свойства помимо тех общих, которые уже обсуждались?

    V>Что касается "наших баранов", то у них тоже образуется очень мощное хитросплетение информации и контекстов. Например, для контроллера жёсткого диска EXEшник — всего лишь поток байт, который нужно передать в ОП, для процессора — поток команд, для обрабатываемых данных — контекст обработки данных, для HEX-редактора — сами обрабатываемые данные. А где-то внутри процессора сидит аналог машины Тьюринга — микропрограмма и железная логика, управляющие друг другом с сумасшедшей тактовой частотой.


    Если рассматривать контекст взаимодействия человека и компьютера, то базовая "кодировка" информации в компьютере (традиционной архитектуры — это двоичный код, который может быть программным кодом и данными (ничего не забыл?). Для создания канала обмена с человеком эта информация трансформируется в зрительные образы на экране, звук и т.д.
    Re[34]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 16.03.09 03:00
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    V>>Суть изначального замечания была в том, я не представляю, как этот непрерывный ряд снимать, что с ним потом делать, а самое главное — с какой целью?

    S>Твоя ошибка в том, что ты хочешь что-то зачем-то "снимать". Это всё равно что считать непрерывные сигналы заранее несуществуюшими — ты же всё равно его через цифровой датчик в компьютер втаскивать будешь

    С аналоговым преобразованием не всё так просто. Реального разложения в гармонический ряд ты не получишь всё-равно, т.е. никакого разложения сигнала на интеграл Фурье не получишь, хоть тресни. При условии использования абсолютно прямоугольных полосовых фильтров в предложенной схеме мы лишь получим на каждом таком фильтре вместо бесконечного интеграла — конечный, от частоты min до max фильтра, то бишь получим банальную фильтрацию, вместо разложения. Можно, конечно, по результату фильтрации определить мощность сигнала в этой полосе — это всего лишь будет конечный интеграл в той же полосе от модуля аргумента исходного интеграла. Но ты никогда не восстановишь фазы составляющих, т.к. при аналоговой обработке в сколь угодно малой полосе может быть сколь угодно много частотных составляющих.

    В общем, подобные схемы практически не используются, ну разве что кроме случаев совсем "грубых" требований, вроде детектора для цветомузыки.


    V>>Ну нам же разложенный сигнал надо как-то принимать/обрабатывать?

    S>А в аналоговом случае ничего дискретного не нужно. Вот мы взяли исходный сигнал, применили к нему преобразователь Фурье в виде диф.решетки. Теперь у нас есть частотная характеристика — мы можем работать уже с ней. К примеру, поставим некий сложной формы фильтр. А после него — обратный преобразователь Фурье. Вот тебе аналоговое решение аналоговой задачи.

    В отличие от преобразования Фурье по дискретным отсчетам, ты в этой схеме не восстановишь обратно эквивалентный сигнал. В цифровом виде сигнал точно восстанавливается обратно из-за Частоты Найквиста, в этом соль. Для аналогового решения это всё работает только в случае заведомо известной решетки частот (типа тонового набора), и то, на полосовых фильтрах аналоговые детекторы тонального набора всё-равно никогда не делали.


    S>В аналоговой схеме просто все компоненты аналоговые.


    Именно, ты правильно начал, но не закончил мысль. Как таковое преобразование Фурье в аналоговой схемотехнике не нужно и не используется. Иногда используется тот самый конечный интеграл по модулю аргумента — он имеет хоть какой-то "физический смысл" для аналоговой схемотехники (пример с цветомузыкой). Но это не тот самый интеграл, повторю, хоть мне здесь уже несколько раз указали на полосовые фильтры; это, ИМХО, от недопонимания.

    Самое замечательное применение около-интегральной-фурье темы — это принципы построения обнаружителей сигнала, основанные на гармонической корреляции с ортогональными фазами. При своём элементарном схемотехническом исполнении, эта схема вычисляет проекции некоей гармоники, которые однозначно определяют её векторный вид. На этом построена чуть ли не вся сигналообрабатывающая схемотехника, от радарного детектирования, до ФМ (не путать с FM) при приёме цифрового сигнала, например в GSM.

    S>В реальных схемах народ отжигает так, что только диву даешься — ведь есть не только линейные эффекты. К примеру, есть вполне удачные аналоговые схемы для построения сверхкоротких лазерных импульсов. Например, есть схема усиления сигнала, где сначала импульс искусственно растягивается, чтобы понизить мгновенную мощность до приемлемой для усилителя, затем усиливается, а затем сжимается обратно.


    Занятно, но к обсуждаемой теме не относится.

    S>Естественно, никаких "снятий непрерывного ряда" в середине нету — не бывает такой техники, чтобы с нужной скоростью работала.


    "Эскадрон моих мыслей шальных"... Навеселе постил?
    Re[35]: Несколько дурацких вопросов по теории информации
    От: Sinclair Россия https://github.com/evilguest/
    Дата: 16.03.09 04:11
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V>С аналоговым преобразованием не всё так просто. Реального разложения в гармонический ряд ты не получишь всё-равно, т.е. никакого разложения сигнала на интеграл Фурье не получишь, хоть тресни.

    Это почему еще?
    V> При условии использования абсолютно прямоугольных полосовых фильтров в предложенной схеме мы лишь получим на каждом таком фильтре вместо бесконечного интеграла — конечный, от частоты min до max фильтра, то бишь получим банальную фильтрацию, вместо разложения.
    Слушай, ты точно видел призму?

    V>В отличие от преобразования Фурье по дискретным отсчетам, ты в этой схеме не восстановишь обратно эквивалентный сигнал.

    Восстановлю — только в путь. Просто полосовые фильтры, про которые ты толкуешь, это уже дискретка. Речь о true analog.
    V>Занятно, но к обсуждаемой теме не относится.
    Это к полосовым фильтрам не относится. А к аналоговым преобразованиям — относится.
    ... << RSDN@Home 1.2.0 alpha rev. 677>>
    Уйдемте отсюда, Румата! У вас слишком богатые погреба.
    Re[7]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 16.03.09 12:53
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Возможность создания контекста как признак жизни? Хотя, нейронные сети всякие...


    Можно... А что значит "создавать контекст"?
    Re[8]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: SergH Россия  
    Дата: 16.03.09 13:04
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    SH>>Возможность создания контекста как признак жизни? Хотя, нейронные сети всякие...


    V>Можно... А что значит "создавать контекст"?


    Ну, мысль была в том, что процессор не обучается, а всё подряд воспринимает как команды, даже если не очень получается. А человек не так, он, если не получается, может попытаться изменить подход.
    Делай что должно, и будь что будет
    Re[9]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 16.03.09 14:30
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Ну, мысль была в том, что процессор не обучается, а всё подряд воспринимает как команды, даже если не очень получается. А человек не так, он, если не получается, может попытаться изменить подход.


    По-моему (и вроде не только по-моему) в этом корренное отличие ИИ от ЕИ: наш мозг способен к обучению, в отличие от компьютерных систем, система правил (комманд, алгоритмов) которых является замкнутой (правда может включать заметно больше этих правил чем может вместить человеческий мозг, ну и даже пополняемый набор всё-таки однотипных правил).
    Re[10]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: SergH Россия  
    Дата: 16.03.09 14:34
    Оценка:
    Здравствуйте, Курилка, Вы писали:

    К>По-моему (и вроде не только по-моему) в этом корренное отличие ИИ от ЕИ: наш мозг способен к обучению, в отличие от компьютерных систем, система правил (комманд, алгоритмов) которых является замкнутой (правда может включать заметно больше этих правил чем может вместить человеческий мозг, ну и даже пополняемый набор всё-таки однотипных правил).


    Ну да, мне тоже так хотелось бы думать. Но как быть с нейронными сетями? Обучаются, сволочи, и иногда даже без учителя..
    Делай что должно, и будь что будет
    Re[11]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 16.03.09 14:41
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Здравствуйте, Курилка, Вы писали:


    К>>По-моему (и вроде не только по-моему) в этом корренное отличие ИИ от ЕИ: наш мозг способен к обучению, в отличие от компьютерных систем, система правил (комманд, алгоритмов) которых является замкнутой (правда может включать заметно больше этих правил чем может вместить человеческий мозг, ну и даже пополняемый набор всё-таки однотипных правил).


    SH>Ну да, мне тоже так хотелось бы думать. Но как быть с нейронными сетями? Обучаются, сволочи, и иногда даже без учителя..


    Насколько я понимаю у нейросетей в любом случае есть некая целевая функция, т.е. обучение опять же не может быть произвольным. Теоретически, конечно, можно представить сверхмощную нейросеть, которая будет обладать достаточной универсальностью, но насколько оно реализуемо на практике — просто не представляю, т.к. не особо в курсе чего там они добились за несколько десятков лет, сдаётся мне что не так чтоб грандиозных вершин, иначе бы я что-нибудь да услышал.
    Re[12]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: SergH Россия  
    Дата: 16.03.09 14:48
    Оценка:
    Здравствуйте, Курилка, Вы писали:

    К>Насколько я понимаю у нейросетей в любом случае есть некая целевая функция, т.е. обучение опять же не может быть произвольным. Теоретически, конечно, можно представить сверхмощную нейросеть, которая будет обладать достаточной универсальностью, но насколько оно реализуемо на практике — просто не представляю, т.к. не особо в курсе чего там они добились за несколько десятков лет, сдаётся мне что не так чтоб грандиозных вершин, иначе бы я что-нибудь да услышал.


    Ну вот, т.е. такой простой границы не получается. Некое "ограниченное обучение" для ИИ допустимо. Вопрос, насколько неограничено наше и какая целевая функция у нас.

    Например, гражданин Хомский отстаивает теорию, что грамматическая структура языка имеет врождённый характер и у всех одинаковая (насколько я понял то, что мне объясняли, сам я не лингвист).
    Делай что должно, и будь что будет
    Re[13]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 16.03.09 15:00
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Ну вот, т.е. такой простой границы не получается. Некое "ограниченное обучение" для ИИ допустимо. Вопрос, насколько неограничено наше и какая целевая функция у нас.

    Вот тут как раз гораздо больше простора для человека, т.к. целеполаганием пока что компьютеры не могут заниматься
    Причём цель для комьпьютера формируется "снаружи", т.к. человек способен сам формировать свои цели (хотя не всегда так делает).
    Он способен ставить ещё и метацели — цель "найти цель", т.е. "тривиальный" поиск смысла жизни.

    SH>Например, гражданин Хомский отстаивает теорию, что грамматическая структура языка имеет врождённый характер и у всех одинаковая (насколько я понял то, что мне объясняли, сам я не лингвист).


    Ты про гипотезу Сепира-Уорфа? Она вроде как раз о том, что разные языки дают разные результаты
    Если о чём-то другом — кинь ссылкой.
    А то, что бытие определяет сознание, то это врядли стоит оспаривать.
    Re[15]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 16.03.09 15:28
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Здравствуйте, Курилка, Вы писали:


    К>>Вот тут как раз гораздо больше простора для человека, т.к. целеполаганием пока что компьютеры не могут заниматься

    К>>Причём цель для комьпьютера формируется "снаружи", т.к. человек способен сам формировать свои цели (хотя не всегда так делает).
    К>>Он способен ставить ещё и метацели — цель "найти цель", т.е. "тривиальный" поиск смысла жизни.

    SH>Но, возможно, всё это делается в рамках скрытого от нас движения к цели, о которой мы не в курсе?


    Ну рассуждать о каких-нибудь "матрицах" и т.п. "высокуровневых" вещах непроверяемых (ониж вроде по определению вроде как выше нашего понимания) по-моему никакого смысла нет
    Re[16]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: SergH Россия  
    Дата: 16.03.09 15:36
    Оценка:
    Здравствуйте, Курилка, Вы писали:

    SH>>Но, возможно, всё это делается в рамках скрытого от нас движения к цели, о которой мы не в курсе?


    К>Ну рассуждать о каких-нибудь "матрицах" и т.п. "высокуровневых" вещах непроверяемых (ониж вроде по определению вроде как выше нашего понимания) по-моему никакого смысла нет


    Имхо, отрицать их, значит тоже рассуждать о них Или нет?
    Делай что должно, и будь что будет
    Re[17]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 16.03.09 15:41
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Здравствуйте, Курилка, Вы писали:


    SH>>>Но, возможно, всё это делается в рамках скрытого от нас движения к цели, о которой мы не в курсе?


    К>>Ну рассуждать о каких-нибудь "матрицах" и т.п. "высокуровневых" вещах непроверяемых (ониж вроде по определению вроде как выше нашего понимания) по-моему никакого смысла нет


    SH>Имхо, отрицать их, значит тоже рассуждать о них Или нет?


    Ну никто вроде об отрицании не говорил
    А пописать буквы ради самого процесса — это, безусловно, можно, но не сильно охота.
    Re[18]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: SergH Россия  
    Дата: 16.03.09 15:55
    Оценка:
    Здравствуйте, Курилка, Вы писали:

    К>Ну никто вроде об отрицании не говорил


    Смотри, последовательность примерно такая:
    — ты говоришь про обучение как отличие ЕИ от ИИ
    — я говорю про нейронные сети
    — ты говоришь про то, что они могут обучаться только очень ограниченно, а человеки -- без ограничений
    — я сомневаюсь в последнем тезисе и поминаю целевую функцию
    — ты говоришь, что человек как раз сам себе целеполагает
    — я говорю, что это не факт
    — ты говоришь, что говорить об этом не имеет смысла

    Делай что должно, и будь что будет
    Re[36]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 16.03.09 16:13
    Оценка:
    Здравствуйте, Sinclair, Вы писали:

    S>Здравствуйте, vdimas, Вы писали:


    V>>С аналоговым преобразованием не всё так просто. Реального разложения в гармонический ряд ты не получишь всё-равно, т.е. никакого разложения сигнала на интеграл Фурье не получишь, хоть тресни.

    S>Это почему еще?

    ХЗ как тебе объяснить. Любой аналоговый сигнал — это уже и есть тот самый интеграл Фурье. Т.е. сам интеграл его находить не надо.
    Иногда интересна задача разложения этого интеграла (суть бесконечной суммы) на члены. В задачу разложения входит нахождение частот, амплитуд и фаз составляющих сигнал гармоник. В цифровом виде задача вполне решаема из-за массы ограничений:
    1. частоты дискретизации, т.е. в цифровом виде не интересует весь сигнал, а только лишь во временных точках, соответствующим замерам в процессе дискретизации. Соотв., после восстановления при обратном преобразовании, гарантируется прохождение результирующей суммы ряда через эти самые отсчёты.
    2. речь идёт о конечном временном отрезке, и, чем он меньше, тем "грубее" в цифровом виде проводится вычисление, т.е. тем больше имеем шаг дискретизации по частоте.
    Итого, цифровое преобразование Фурье реально ищет не те частоты (произвольные в общем случае), из которых состоит исходный сигнал, а некую фиксированную решётку частот, при обратном преобразовании которая даёт на вычисляемом отрезке (и только на нём) совпадение с исходным сигналом в точках дискретизации.

    В аналоговом виде разложение в ряд Фурье легко выполнимо для случая, когда сигнал представлен одной гармоникой, преобразователь такого рода — это просто измеритель частоты. Вполне решаема задача так же нахождения двух близкостоящих гармоник (когда сигнал состоит только из них), по формуле суммы синусов/косинусов получаем умножение разностной и средней частоты (первую замеряем как АМ-сигнал, вторую как ЧМ-сигнал). Если же близкостоящих гармоник более 2-х, то выполнить разложение в аналоговом варианте просто нереально.


    V>> При условии использования абсолютно прямоугольных полосовых фильтров в предложенной схеме мы лишь получим на каждом таком фильтре вместо бесконечного интеграла — конечный, от частоты min до max фильтра, то бишь получим банальную фильтрацию, вместо разложения.

    S>Слушай, ты точно видел призму?

    Про призму уже отвечал — покажи мне преобразователь спектра из электрического в спектр световой с сохранением хоть какой-то пропорциональности (то бишь линейности). В аналоговом виде задача даже просто масштабирования спектра электрического сигнала пока не решена, возможен только перенос без масштабирования, что в области световых частот (если бы был возможен такой перенос) сделает "далеко стоящие" гармоники на радиочастотах практически неразличимыми в области световых частот (относительная ширина спектра при переносе вверх уменьшается).

    V>>В отличие от преобразования Фурье по дискретным отсчетам, ты в этой схеме не восстановишь обратно эквивалентный сигнал.

    S>Восстановлю — только в путь. Просто полосовые фильтры, про которые ты толкуешь, это уже дискретка. Речь о true analog.

    Тогда можно на пальцах, каким образом?
    Re[7]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 16.03.09 16:18
    Оценка:
    Здравствуйте, depth, Вы писали:

    D>Что если, например, сказать, что у меня есть глаза, уши, нос, руки и язык и поэтому я могу воспринимать соответствующую информацию.


    Я бы сказал не так. У тебя есть глаза, уши и нос и поэтому ты можешь принимать визуальные, звуковые и химические сигналы. А информацией они становятся потому, что у тебя есть мозг, который может поместить эти сигналы в контекст.

    D>Применяя компьютерную терминологию (поскольку кодировка в человеческом мозгу неизвестна) эта информация, чтобы ей могли обмениваться человек и компьютер, может быть текстом, видео и звуком (ничего не забыл?).


    Это по форме. По сути же может быть что угодно.

    D>Если рассматривать контекст взаимодействия человека и компьютера...


    Стоп. Человек взаимодействует с компьютером только когда он изучает/меняет этот самый компьютер и его содержимое (например, патчит KDE на FreeBSD). В большинстве случаев человек взаимодействует с людьми через компьютер. А там уже свои, чисто человеческие контексты.
    Re[19]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 16.03.09 19:22
    Оценка:
    Здравствуйте, SergH, Вы писали:

    SH>Здравствуйте, Курилка, Вы писали:


    К>>Ну никто вроде об отрицании не говорил


    SH>Смотри, последовательность примерно такая:

    SH>- ты говоришь про обучение как отличие ЕИ от ИИ
    SH>- я говорю про нейронные сети
    SH>- ты говоришь про то, что они могут обучаться только очень ограниченно, а человеки -- без ограничений
    SH>- я сомневаюсь в последнем тезисе и поминаю целевую функцию
    SH>- ты говоришь, что человек как раз сам себе целеполагает
    SH>- я говорю, что это не факт
    Только без аргументации, типа их не может быть, мы ведь не понимаем это...
    SH>- ты говоришь, что говорить об этом не имеет смысла
    А какой смысл рассматривать нефасальсифицируемые гипотезы? Если только по приколу, в реальности же от них толку маловато
    И где тут отрицание?
    Re: Несколько дурацких вопросов по теории информации
    От: Слесарь  
    Дата: 17.03.09 08:32
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>С удивлением обнаружил, что не смотря на то, что вспахиваю ниву информационных технологий, о самом понятии "информация" имею довольно мутные представления.


    Может кто-то уже предлагал, но всеже вот:

    ИНФОРМАЦИЯ (от лат . informatio — разъяснение, изложение), первоначальная — сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и т. д.); с сер. 20 в. общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму (см. Генетическая информация); одно из основных понятий кибернетики.

    Re[8]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: depth  
    Дата: 17.03.09 09:30
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, depth, Вы писали:


    D>>Что если, например, сказать, что у меня есть глаза, уши, нос, руки и язык и поэтому я могу воспринимать соответствующую информацию.


    V>Я бы сказал не так. У тебя есть глаза, уши и нос и поэтому ты можешь принимать визуальные, звуковые и химические сигналы. А информацией они становятся потому, что у тебя есть мозг, который может поместить эти сигналы в контекст.


    Шаг преобразования мозгом сигналов в информацию я пропустил (чтобы особо не расписываться), хотя и подразумевал

    D>>Применяя компьютерную терминологию (поскольку кодировка в человеческом мозгу неизвестна) эта информация, чтобы ей могли обмениваться человек и компьютер, может быть текстом, видео и звуком (ничего не забыл?).


    V>Это по форме. По сути же может быть что угодно.


    Мне все-таки кажется, что это свойство контекста или канала (а значит, возможно, св-во информации) — кодирование информации, соглашение о протоколе. Здесь возникает и, судя по всему, не в первый раз вопрос, есть ли у компьютера информационный контекст?

    D>>Если рассматривать контекст взаимодействия человека и компьютера...


    V>Стоп. Человек взаимодействует с компьютером только когда он изучает/меняет этот самый компьютер и его содержимое (например, патчит KDE на FreeBSD). В большинстве случаев человек взаимодействует с людьми через компьютер. А там уже свои, чисто человеческие контексты.


    Согласен, но чтобы пояснить свою позицию первый предложенный use case был:
    1. Контекст 1 (человек) — канал обмена — Контекст 2 (компьютер). Вопрос: можно ли считать, что у компутера есть контекст?
    теперь мы пришли к тому, что не нужно забывать о
    2. Контекст 1 (человек) — канал обмена — Контекст 2 (компутер) — канал обмена — Контекст 3 (человек 2). Если у компутера нет контекста, то тогда его надо считать каналом?
    и пожалуй сразу надо упомянуть (как один из самых важных)
    3. Контекст 1 (человек 1) — канал обмена (например, личное общение) — Контекст 2 (человек 2).
    Re[9]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информац
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 17.03.09 10:47
    Оценка:
    Здравствуйте, depth, Вы писали:

    D>Мне все-таки кажется, что это свойство контекста или канала (а значит, возможно, св-во информации) — кодирование информации, соглашение о протоколе. Здесь возникает и, судя по всему, не в первый раз вопрос, есть ли у компьютера информационный контекст?


    У компьютера информационный контекст есть обязательно! Иначе он не мог бы произвести ни одной операции по обработке информации (т.к. без контекста не было бы информации).

    Вот я сейчас подвигаю по столу маленькую пластмассовую коробочку и нажму пальцем на её левый передний угол. Это будет физическое воздействие, которое быстро превратится в информацию "перемещение указателя" и "клик левой кнопкой мыши", которая имеет смысл в контексте ОС, транслируется приложению браузера, станет информацией "нажатие кнопки Отправить" (имеет смысл в контексте отображаемой страницы), добежит до сервера RSDN, где станет событием "новое сообщение" в контексте Кывтовой БД.

    D>Согласен, но чтобы пояснить свою позицию первый предложенный use case был:

    D>1. Контекст 1 (человек) — канал обмена — Контекст 2 (компьютер). Вопрос: можно ли считать, что у компутера есть контекст? [...]

    Похоже, ты путаешь контекст и место хранения/обработки информации. А их не надо путать.

    Текст на C++ может становиться информацией в следующих контекстах:
    — Компилятор. Не конкретный компилятор, запущенный на конкретной машине, а абстрактный, обобщённый компилятор. Пока в мире есть хотя бы один исправный компьютер с компилятором С++ (или человечество не разучилось навсегда писать компиляторы), этот контекст существует, и можно попытаться скомпилить наш текст.
    — Проект. Рассматриваемый текст наверняка играет в проекте какую-то роль (возможно, деструктивную).
    — Учебник по C++. Не добавив к маленькому исходнику тему, которую он иллюстрирует, мы вряд ли поймём, зачем этот маразм написан.
    — Молодёжная субкультура. Типа "Зацените, чуваки, какую хрень мой папаня пишет!"
    А без контекста текст на C++ — это либо юзанная бумага, либо файл неизвестного формата и назначения.
    Re[2]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 17.03.09 14:19
    Оценка:
    Здравствуйте, Слесарь, Вы писали:

    С>

    С>ИНФОРМАЦИЯ (от лат . informatio — разъяснение, изложение), первоначальная — сведения, передаваемые людьми устным, письменным или другим способом [...]; одно из основных понятий кибернетики.


    Спасибо, конечно, но не помогло.

    СВЕДЕНИЯ — информация, передаваемая людьми устным, письменным....... тьфу, срамота

    КИБЕРНЕТИКА (от греч. kybernetike — «искусство управления», от греч. kybernao — «правлю рулём, управляю», от греч. Κυβερνήτης — «кормчий») — наука об общих закономерностях процессов управления и передачи информации в машинах, живых организмах и обществе.
    Re[3]: Несколько дурацких вопросов по теории информации
    От: Слесарь  
    Дата: 17.03.09 14:36
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>СВЕДЕНИЯ — информация, передаваемая людьми устным, письменным....... тьфу, срамота


    Но собственно, информация имеет какой-то смысл только в случае интерпретации её людьми.
    То что управляет механизмами и называется тоже информацией — немного неверно...
    Управляет механизмом или высвечивается на экране монитора, это не информация, это некие последовательности комбинации тех или иных сигналов состояний материи. Превращаются в информацию они только в сознании людей. Можно сказать, что наши органы чувств и мозг являются некими посредниками преобразующими сигналы или состояние материи в информацию
    Re[11]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 17.03.09 14:49
    Оценка:
    Здравствуйте, Курилка и SergH, Вы писали:

    К>>По-моему (и вроде не только по-моему) в этом корренное отличие ИИ от ЕИ: наш мозг способен к обучению, в отличие от компьютерных систем, система правил (комманд, алгоритмов) которых является замкнутой (правда может включать заметно больше этих правил чем может вместить человеческий мозг, ну и даже пополняемый набор всё-таки однотипных правил).


    SH>Ну да, мне тоже так хотелось бы думать. Но как быть с нейронными сетями? Обучаются, сволочи, и иногда даже без учителя..


    Что-то совсем не хочется опять скатываться в дискуссию на тему "мащина думат нэ можьет".

    Что касается обучения, то если у системы есть какая-никакая память, то есть ненулевая вероятность того, что где-нибудь внутри неё можно найти нечто, напоминающее обучение.
    Если говорить о нейронных сетях, то это всего лишь один из очень многих численных методов аппроксимации функций многих переменных. Обучаемости и разумности в философском смысле в нейрокомпьютере не больше, чем в кнопочке "M+" на калькуляторе.
    Re[4]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 17.03.09 15:45
    Оценка:
    Здравствуйте, Слесарь, Вы писали:

    С>Но собственно, информация имеет какой-то смысл только в случае интерпретации её людьми.

    С>То что управляет механизмами и называется тоже информацией — немного неверно...

    См. последний абзац перед разделительной чертой в "Итогах..."
    Автор: Voblin
    Дата: 25.02.09
    .

    С>Можно сказать, что наши органы чувств и мозг являются некими посредниками преобразующими сигналы или состояние материи в информацию


    Состояние материи и информация — это понятия из разных наук. В рассуждении о преобразовании одного в другое не больше, чем в рассуждениях о преобразовании силы гравитации в особенности полового поведения летучих мышей.
    Re[10]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: depth  
    Дата: 17.03.09 16:19
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, depth, Вы писали:


    D>>Мне все-таки кажется, что это свойство контекста или канала (а значит, возможно, св-во информации) — кодирование информации, соглашение о протоколе. Здесь возникает и, судя по всему, не в первый раз вопрос, есть ли у компьютера информационный контекст?


    V>У компьютера информационный контекст есть обязательно! Иначе он не мог бы произвести ни одной операции по обработке информации (т.к. без контекста не было бы информации).


    V>Вот я сейчас подвигаю по столу маленькую пластмассовую коробочку и нажму пальцем на её левый передний угол. Это будет физическое воздействие, которое быстро превратится в информацию "перемещение указателя" и "клик левой кнопкой мыши", которая имеет смысл в контексте ОС, транслируется приложению браузера, станет информацией "нажатие кнопки Отправить" (имеет смысл в контексте отображаемой страницы), добежит до сервера RSDN, где станет событием "новое сообщение" в контексте Кывтовой БД.


    D>>Согласен, но чтобы пояснить свою позицию первый предложенный use case был:

    D>>1. Контекст 1 (человек) — канал обмена — Контекст 2 (компьютер). Вопрос: можно ли считать, что у компутера есть контекст? [...]

    V>Похоже, ты путаешь контекст и место хранения/обработки информации. А их не надо путать.


    V>Текст на C++ может становиться информацией в следующих контекстах:

    V>- Компилятор. Не конкретный компилятор, запущенный на конкретной машине, а абстрактный, обобщённый компилятор. Пока в мире есть хотя бы один исправный компьютер с компилятором С++ (или человечество не разучилось навсегда писать компиляторы), этот контекст существует, и можно попытаться скомпилить наш текст.
    V>- Проект. Рассматриваемый текст наверняка играет в проекте какую-то роль (возможно, деструктивную).
    V>- Учебник по C++. Не добавив к маленькому исходнику тему, которую он иллюстрирует, мы вряд ли поймём, зачем этот маразм написан.
    V>- Молодёжная субкультура. Типа "Зацените, чуваки, какую хрень мой папаня пишет!"
    V>А без контекста текст на C++ — это либо юзанная бумага, либо файл неизвестного формата и назначения.

    Я не путаю, я пытаюсь выделить классы контекстов (например, класс контекстов человека и класс контекстов компутера) и их св-ва. Можно связать _свой_ контекст с каждым информационным взаимодействием и субъектом, оперирующим в этом контексте. Прочитал текст на англ — свой контекст, прослушал мп3 на русском — тоже свой, но это неинтересно. А вот что между ними общего и какие могут быть классы контекстов — это интересный вопрос.

    Что касается контекста компьютера, то это, мне кажется, уже обсуждалось. Контекст для компьютера определен в глазах субъекта (человека), с которым он взаимодействует. Есть ли у него "свой" информационный контекст и как он соотносится с контекстом в глазах человека — другой интересный вопрос
    Re[11]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 18.03.09 17:54
    Оценка:
    Здравствуйте, depth, Вы писали:

    D>Я не путаю, я пытаюсь выделить классы контекстов (например, класс контекстов человека и класс контекстов компутера) и их св-ва. [...] А вот что между ними общего и какие могут быть классы контекстов — это интересный вопрос.


    Я бы сказал, целое семейство интересных вопросов. Думаю, дополнение теории информации учением о контекстах, их классификации, способах их образования и взаимодействия — это гигантское непаханное поле, на котором можно взрастить нехилое количество докторских диссертаций. Только я, пожалуй, этим заниматься не буду

    И даже ведь понятно от чего можно оттолкнуться. Оттолкнуться можно от классического шенноновского определения «информация — это то, что устраняет неопределенность выбора». В этом предложении "неопределённость выбора" — это свойство не сигнала, а контекста, в который он попадает.

    И когда мы говорим, что в сигнале содержится N бит, то мы характеризуем не сам сигнал, а контекст, его принимающий. Глупо говорить о том, что по проводу струится 704000 бит в секунду. Если мы поставим 16-ти разрядный АЦП с частотой дискретизации 44kHz, то там будет действительно столько, а если поставим 8-ми разрядный с той же частотой, то в проводе уже информации в два раза меньше. Куда делась половина? А никуда не делась. Некорректный вопрос.
    Re[5]: Несколько дурацких вопросов по теории информации
    От: Слесарь  
    Дата: 18.03.09 18:16
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Состояние материи и информация — это понятия из разных наук. В рассуждении о преобразовании одного в другое не больше, чем в рассуждениях о преобразовании силы гравитации в особенности полового поведения летучих мышей.


    Странно... Я лишь сказал, что информация(истинно) это абстракция из сферы сознания, а не из сферы материального мира
    Re[6]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 18.03.09 18:44
    Оценка:
    Здравствуйте, Слесарь, Вы писали:

    С>Странно... Я лишь сказал, что информация(истинно) это абстракция из сферы сознания, а не из сферы материального мира


    Sorry. С ходу не въехал
    Всё правильно. Только, наверно, не из сферы сознания, а из сферы нематериального.
    Re[7]: Несколько дурацких вопросов по теории информации
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 18.03.09 20:30
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, Слесарь, Вы писали:


    С>>Странно... Я лишь сказал, что информация(истинно) это абстракция из сферы сознания, а не из сферы материального мира


    V>Sorry. С ходу не въехал

    V>Всё правильно. Только, наверно, не из сферы сознания, а из сферы нематериального.

    У тебя есть примеры нематериального, не являющегося функцией сознания?
    Re[12]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: depth  
    Дата: 19.03.09 09:00
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, depth, Вы писали:


    D>>Я не путаю, я пытаюсь выделить классы контекстов (например, класс контекстов человека и класс контекстов компутера) и их св-ва. [...] А вот что между ними общего и какие могут быть классы контекстов — это интересный вопрос.


    V>Я бы сказал, целое семейство интересных вопросов. Думаю, дополнение теории информации учением о контекстах, их классификации, способах их образования и взаимодействия — это гигантское непаханное поле, на котором можно взрастить нехилое количество докторских диссертаций. Только я, пожалуй, этим заниматься не буду


    V>И даже ведь понятно от чего можно оттолкнуться. Оттолкнуться можно от классического шенноновского определения «информация — это то, что устраняет неопределенность выбора». В этом предложении "неопределённость выбора" — это свойство не сигнала, а контекста, в который он попадает.


    V>И когда мы говорим, что в сигнале содержится N бит, то мы характеризуем не сам сигнал, а контекст, его принимающий. Глупо говорить о том, что по проводу струится 704000 бит в секунду. Если мы поставим 16-ти разрядный АЦП с частотой дискретизации 44kHz, то там будет действительно столько, а если поставим 8-ми разрядный с той же частотой, то в проводе уже информации в два раза меньше. Куда делась половина? А никуда не делась. Некорректный вопрос.


    Вот в этом, да и в остальных примерах, предполагается, что способ кодирования сигнала, передаваемая информация в канале определены в контексе. Получается, что канал — часть контекста, а точнее обоих (с передающей и с принимающей стороны). И тогда с одной стороны можно считать, что это один и тот же контекст, а с другой, что они все-таки разные. Имеет ли смысл даже вводить в употребление канал?

    В общем соотнесенность с источником информации (а также свойства) для контекста и канала неопределены, тема нераскрыта
    Re[13]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 19.03.09 13:29
    Оценка:
    Здравствуйте, depth, Вы писали:

    D>Вот в этом, да и в остальных примерах, предполагается, что способ кодирования сигнала, передаваемая информация в канале определены в контексе.


    Ага.

    D>Получается, что канал — часть контекста, а точнее обоих (с передающей и с принимающей стороны).


    Это смотря как провести границу рассматриваемой системы. Если мы включим в систему источник и приёмник сигнала, то, понятно, способ кодирования — это часть конструкции системы. А так как внутри систем информация не рождается (помним, что никакая обработка информации не увеличивает её количество), то говорить о внутренних контекстах системы имеет смысл только в том случае, когда мы систему разбиваем на подсистемы.

    Да уж... Пошёл поток сознания Не относитесь к этому слишком уж критически. Тема информационных контекстов никем, похоже не прорабатывалась (или всё таки прорабатывалась?), и меня просто бешено мотает по непаханному полю
    Re[9]: Несколько дурацких вопросов по теории информации
    От: Курилка Россия http://kirya.narod.ru/
    Дата: 19.03.09 13:56
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, Курилка, Вы писали:


    К>>У тебя есть примеры нематериального, не являющегося функцией сознания?


    V>Два примера из совсем разных областей:


    V>1. Экосистема леса. Странная такая сущность, которая с одной стороны обладает некоторыми свойствами информации (нечёткая локализация в пространстве/времени, субъективность), но при этом сама по себе информацией не является. Не является функцией сознания (т.е. нельзя найти того, кто создал её сознательно). Тем не менее она существует и её свойства, знаем мы о них или нет, оказывают сильнейшее влияние на материальные процессы (например, на преобладающую высоту деревьев).

    Нечёткость != нематериальность

    V>2. Давление Очень забавная чисто искусственная интегральная характеристика, которая, знаем мы о ней или нет, может либо запускать, либо не запускать самоподдерживающуюся термоядерную реакцию.

    т.е. давление нематериально?

    V>В скобках замечу, что если мы будем рассматривать упомянутые сущности через механистическую познавательную модель, то мы обнаружим, что они не существуют. Не надо на них смотреть через механистическую ПМ. Это не продуктивно.

    Т.е. согласно механистической модели мои пальцы не давят на клавиатуру?
    Да и к чему ты приплёл механистическую модель?
    Речь лишь о нематериальном, не являющимся функцией сознания, твои примеры по-моему "не катят".
    Re[15]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 20.03.09 11:37
    Оценка:
    Здравствуйте, depth, Вы писали:

    D>Не знаю, надо изучать интернет

    D>Какие-то ссылки про теорию информации в ее философском аспекте находятся (например, http://www.inftech.webservis.ru/it/information/index.html), но их ценность и положения пока непонятны

    Спасибо за интересную ссылку. Почитаю на досуге.
    А то куда ни ткнись — везде детский сад типа "информация бывает текстовой, визуальной, звуковой, а также байты в компьютере"
    Re[16]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: depth  
    Дата: 06.04.09 19:37
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    V>Здравствуйте, depth, Вы писали:


    D>>Какие-то ссылки про теорию информации в ее философском аспекте находятся (например, http://www.inftech.webservis.ru/it/information/index.html), но их ценность и положения пока непонятны


    V>Почитал тамошний центральный труд "Информодинамика или путь к Миру открытых систем". Положения остались непонятны, но ценность стала кристально ясна. Ценность практически равна нулю.


    V>Основной вывод из того, что удалось осилить (целиком не смог, уж извините): эта книга высокотоксична.


    Я, честно говоря, просмотрел этот сайт по диагонали и воспринял его больше как коллекцию статей по теме.
    Пока читаю вот эту, которая показалась любопытной
    http://www.inftech.webservis.ru/it/information/ar2.html
    Re[17]: ИТОГИ ОБСУЖДЕНИЯ дурацких вопросов по теории информа
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 07.04.09 08:08
    Оценка:
    Здравствуйте, depth, Вы писали:

    D>Я, честно говоря, просмотрел этот сайт по диагонали и воспринял его больше как коллекцию статей по теме.

    Нет проблем. Мне очень любопытно было эту хрень почитать. Хотя бы для того, чтобы почувствовать, насколько всё запущенно.

    D>Пока читаю вот эту, которая показалась любопытной

    D>http://www.inftech.webservis.ru/it/information/ar2.html
    Посмотрел по диагонали. Не очень интересно. Вообще, сейчас читаю Джефа Хокинза "Об интеллекте" (скачать можно здесь). Душа поёт.
     
    Подождите ...
    Wait...
    Пока на собственное сообщение не было ответов, его можно удалить.