Здравствуйте, mefrill, Вы писали:
M>Это ты малость попутал. Не вывод, а гипотеза, точнее "тезис". И не Тьюринга, а Черча.
Спасибо за уточнение. Мы, замшелые императивщики, любим называть это принципом Тьюринга. Видимо, это одно из проявлений всемирного заговора против более продвинутых функциональщиков
Здравствуйте, Voblin, Вы писали:
V>то в роли субъекта может выступать что угодно.
V>Маленькое ограничение. Рассуждать о процессах, происходящих в неживой природе в информационных терминах — хм... некорректно.
Так может быть не живое субъектом или нет?
Здравствуйте, dotneter, Вы писали:
V>>Маленькое ограничение. Рассуждать о процессах, происходящих в неживой природе в информационных терминах — хм... некорректно. D>Так может быть не живое субъектом или нет?
Честное слово, легко. Сам делаю неживые предметы, которые умеют обрабатывать информацию.
Здравствуйте, Voblin, Вы писали:
LL>>С вороной все довольно просто, если рассматривать глаз как устройство для сбора информации об окружающей среде, а мозг — как приемник.
V>Это понятно. Не понятно, где искать отправителя сообщения.
Дык глаз же отправитель. Датчик который.
... << RSDN@Home 1.2.0 alpha 4 rev. 1237>>
Чем совершеннее технически средство, тем более примитивные, никчемные и бесполезные сведения при его помощи передаются.(с)Станислав Лем
Здравствуйте, Voblin, Вы писали:
V>Если я их туда посадил этим заниматься, то да.
Нет, они этим занимаются самостоятельно, по природе вещей, без чьего либо наставления.
Мне кажется выражение:
сигнал + контекст = информация
правильнее будет так:
сигнал + контекст =~ знание
Почему "=~" ? Потому что происходит не обязательное получение знания, а понимание.
Например, двое, обладающих одинаковым контекстом, получают одну и туже информацию. Один приобретает знание, другой нет. Один понял, другой нет. Почему это происходит — вот хорошая загадка
Здравствуйте, Voblin, Вы писали:
V>Про непоявление новой информации при вычислении — это было "лирическое отступление", добавленное для иллюстрации запущенности проблемы. С применением "контекстной зависимости" информации всё становится просто, ясно и... не интересно для дальнейшего обсуждения.
А, ну если цель была напустить туману, а не сделать просто и ясно...
J>>Тут, конечно, можно поспорить, является ли информацией знание частного, если есть знание общего. J>>Имхо — является, просто потому, что для получения частного нужно совершить работу по извлечению ее из общего (ака вычисление).
V>Отношение "частное-общее" годится, но не всегда. Может быть ещё "до-после". Многие это не принимают в расчёт. Даже если я закрою глаза и "отключусь" ото всех раздражителей, всё равно я сейчас не буду знать, о чём я подумаю через секунду.
Не понял, какое это отношение имеет к информации?
V>Ничего интересного. Слишком обобщённая "принципиальная схема" того, как работает память.
ну уж простите...
J>>И количество информации, содержащейся в сообщении (сигнале) — это максимальная величина....... V>Что за страсть лазить везде с линейкой?
Потому что только после этого заканчивается словоблудие и начинается наука.
V>Типа если что-то нельзя измерить числом, то об этом и думать не стоит? Какая наивность! Самые важные вещи, о которых больше всего стоит думать, таковы, что никаким числом не меряются: любовь, смерть, долг, справедливость, свобода, честь, красота.
Для начала надо доказать, что "что-то нельзя измерить числом".
Я вот вижу, что информация (вернее, количество оной) прекрасно числом измеряется.
Остальные понятия тоже замечательно измеряются, особенно смерть — пациент либо жив, либо мертв.
J>>Насчет аддитивности информации — информацию можно рассматривать как множество (фактов), и применять стандартные теоретико-множественные операции и меры.
V>Если мы что-то рассматриваем как множество, то мы можем применять теоретико-множественные операции. Множество фактов — пожалуйста, множество ангелов — нет проблем. V>Кстати, что такое факт? А то ведь обидно будет рассматривать множество неизвестно чего.
Факт — это единица информации (см. сепульки). Почему обидно? Ты ведь тоже не определяешь информацию, а прекрасно ее рассматриваешь.
V>Если программа (говорю о программе вообще, а не о квайне) написана на C++, то исходника в экзешнике нет.
Тогда к чему упоминание о квайне?
Если у тебя только экзешник, то ты не можешь знать, квайн это или просто printf(program_source).
Рекомендую вам ознакомиться с классическим изложением ваших идей. Возможно, это поможет вам найти ответы на некоторые ваши вопросы и взглянуть на все иначе.
Ключевые слова:
— минимальная длина описания (MDL — minimum description length)
— индуктивная логика, логика Милля
— Соломонов (Solomonoff), его работы
— книга Потапова "Распознавание образов и машинное обучение"
Здравствуйте, neurofish, Вы писали:
N>Рекомендую вам ознакомиться с классическим изложением ваших идей. Возможно, это поможет вам найти ответы на некоторые ваши вопросы и взглянуть на все иначе.
Классику немножко почитал. К сожалению, классикой стало только то, что связано с попытками количественного измерения информации. Но так уж получилось, что эта тема (количественное измерение) — наиболее мне понятна и наименее интересна.
N>Ключевые слова: N> — минимальная длина описания (MDL — minimum description length)
Как сказал выше, не интересно. IMHO, вообще глупость — подходить с линейкой к конкретной последовательности нулей и единиц. Или я чего не понял?
N> — индуктивная логика, логика Милля
Это который James Mill (1773–1836)? Есть что-нибудь подробное по-русски?
N> — Соломонов (Solomonoff), его работы
Посмотрел по диагонали. Опять первичный алфавит, опять какие-то количественные оценки. Скучно.
N> — книга Потапова "Распознавание образов и машинное обучение"
Книгу найти не удалось. Ну не покупать же её, в самом деле, лишь для того, чтобы понять, что её тематика от меня бесконечно далека? Кроме того, "распознавание образов" и "машинное восприятие" — это хорошие тематики, но не сейчас.
Вообще (безотносительно к книге Потапова) хочется сказать следующее: нужно прекратить дрочить на распознавание образов. Просто взять и прекратить. Проблемы "информация", "системы" и "мозги" намного глубже и интереснее, чем это навязшее в зубах распознавание образов.
Здравствуйте, Voblin, Вы писали:
V>Здравствуйте, уважаемые,
V>Некоторое время назад мы здесь много и весьма интересно рассуждали о природе информации. V>В качестве "продолжения банкета" предлагаю вам свою статью Как найти "информацию".
Меня абсолютно не удовлетворяет используемое Лучано "мягкое" определение, что информация — это согласованные данные, имеющие значение. Хорошо, конечно, что сделан акцент на том, что должно быть какое-то воплощение ("данные", которые у меня обозваны сигналом). Зачем-то сделан акцент на непротиворечивости ("well-formed"). В общем-то этот акцент не мешает, но мне кажется лишним. Но вся фишка, вся суть проблемы просто засунута в то, что ОНО должно иметь значение ("meaningful"). Как только мы говорим "стоп, ребята, скажите теперь, что такое эта самая хвалёная семантика", мы сразу же возвращаемся к началу вопроса.
CB>Так что, вопрос "что есть информация?" пока без ответа.
Я знаю. И тумана вокруг "информации" напущено столько, что мама не горюй.
Именно это и сподвигло меня на написание опуса.
Информация — это особый вид данных, который представляет собой исходный код для программ, которые выполняются на вычислительном устройстве типа "мозг". Как вам такой вариант?
Здравствуйте, Andrei F., Вы писали:
AF>Информация — это особый вид данных
Ага. Лопата — это особый вид железяки...
AF>, который представляет собой исходный код для программ, которые выполняются на вычислительном устройстве типа "мозг". Как вам такой вариант?
Плохо. Мало того, что ничего не сказано, но и приплетено целиком спорное предположение о том, что в мозгу выполняются какие-то программы.
Интересно, откуда столько язвительности?
V>Плохо. Мало того, что ничего не сказано, но и приплетено целиком спорное предположение о том, что в мозгу выполняются какие-то программы.
Сказано много, только понято мало.
То, что в мозгу есть подсистемы, которые из одних наборов данных получают другие — это очевидно. Я назвал их структуру "программой", потому что более точного слова у нас нет.
Здравствуйте, Andrei F., Вы писали:
AF>Интересно, откуда столько язвительности?
Не обижайся, пожалуйста. Это от того, что я просто устал читать бессмысленные (как правило, тавтологические) рассуждения об информации. Ты в этом, конечно, не виноват. Это всеобщая беда
Если обидел, извиняюсь.
AF>То, что в мозгу есть подсистемы, которые из одних наборов данных получают другие — это очевидно. Я назвал их структуру "программой", потому что более точного слова у нас нет.
Деление системы на подсистемы — это всегда упрощение. В случае мозгов — чудовищное. Самое корректное наглядное сравнение схемотехники и структуры мозга — это стадион, заполненный варёной разнокалиберной лапшой под самые верхние трибуны. Такова селява. И мы этим думаем
Здравствуйте, Voblin, Вы писали:
V>Деление системы на подсистемы — это всегда упрощение. В случае мозгов — чудовищное. Самое корректное наглядное сравнение схемотехники и структуры мозга — это стадион, заполненный варёной разнокалиберной лапшой под самые верхние трибуны. Такова селява. И мы этим думаем
Это всё же не совсем так, в мозгу выделяют вполне четко обособленные регионы. Но это в принципе вообще неважно.
Ключевая идея в том, что информация не существует без воспринимающего субъекта именно потому, что информация — это "код", а не просто пассивные данные. Она меняет восприятие того, кто воспринимает информацию. Меняет конфигурацию кусков лапши, если тебе угодно.
Здравствуйте, Andrei F., Вы писали:
AF>Это всё же не совсем так, в мозгу выделяют вполне четко обособленные регионы. Но это в принципе вообще неважно.
Функционально специфичные регионы — да, выделяются, но структура всего этого великолепия — полный бардак. По возможности, все-со-всеми, а там как получится.
AF>Ключевая идея в том, что информация не существует без воспринимающего субъекта именно потому, что информация — это "код", а не просто пассивные данные. Она меняет восприятие того, кто воспринимает информацию. Меняет конфигурацию кусков лапши, если тебе угодно.
Абсолютно согласен. Только если говорить про мозги, то всё, что поступает на вход и всё, что рождается внутри — это и "код", и "данные" одновременно.
С концепцией, что информация рождается при попадании сигнала в контекст, это вполне согласуется.