Re[6]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 25.12.09 10:05
Оценка:
Здравствуйте, Шахтер, Вы писали:

V>>Не надо антиэнтропии. Из розетки в мой комп поступает электрическая энергия, а не электрическая антиэнтропия.

Ш>Которая целиком в виде тепла отдаётся в окружающую среду.
Ш>Компьютер не потребляет энергию. Энергию вообще потребить невозможно -- закон сохранения энергии мешает.

Совершенно верно.

V>>Очень принципиален. Речь идет о нащупывании границы применимости принципа Тьюринга. Того самого, который многими горячими головами считается универсальным и вселенским.

Ш>принципа Тьюринга -- это ты о чем?

Есть обработка информации (с этим бесполезно спорить так как сам спор является обработкой информации). И есть вычисление. Вычисление — вполне конкретная штука, очень хорошо "прорытая" в середине XX века. Один из выводов заключается в том, что все универсальные вычислители эквивалентны машине Тьюринга.
Если верна гипотеза о том, что любая обработка информации является вычислением, то любой обработчик информации может быть реализован машиной Тьюринга. Если эта гипотеза не верна, то некоторые виды обработки информации (те, которые являются вычислениями) могут быть реализованы на МТ, а все остальные — нет.

Ш>>>Ну почему же. Есть вполне объективные способы измерить если не информацию, то сообщение.

V>>Ага. Можно ещё мерить книги в килограммах.
Ш>Неуместная ирония.

Может быть.
ОК. Меряем сообщение. Но что мы в нём меряем? Т.н. содержание? С этим облом. Для вычисления количества бит по известной формуле нужно задать распределение плотностей вероятности появления символов первичного алфавита, но в сообщении оно (распределение) не содержится. Оно содержится где-то ещё (я назвал это контекстом). В сообщении содержатся только сами символы первичного алфавита. Т.е. взяв конкретный сигнал (например, файл), мы не можем посчитать количество бит . Не хватает распределения плотностей вероятности, которое обязательно нужно подставить в формулу.
Так что же мы имеем в виду, когда говорим "файл размером 100 килобайт"? Ошибаемся? Путаем термины? Нет. У этого высказывания есть вполне конкретный технический смысл. Смысл этот состоит в том, что мы говорим, что длина и конструкция данного конкретного сигнала таковы, что максимально возможное количество равноожидаемых различимых состояний, которое может обслужить данное изделие, равно 2 в степени 100*1024*8. Т.е. не количество информации, которое содержится в файле (там информация вообще не содержится), а максимально возможное количество информации, которое может быть извлечено из устройства. Потенциальная ёмкость.

Ш>У сигнала всегда есть субьект-отправитель и субьект-получатель.


Как быть с вороной и с восходом Солнца?
Re[12]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 25.12.09 10:44
Оценка:
Здравствуйте, SergH, Вы писали:

Извиняюсь за задержку с ответом.

SH>Сомнения возникли. В твоей благонадёжности

Типа продался иноплатентным киборгам-убийцам?

SH>А в плане разума? Разум -- осмысленное понятие?

Наверно, осмысленное. Я не знаю. Слово настолько затасканное, что я не возьмусь утверждать, может ли в принципе компьютер обладать разумом. И даже не возьмусь утверждать, разумны ли люди.

SH>Тут просто смотри какая штука. Тут не понятно где остановиться. Преобразование битовых строк в компьютере ты называешь преобразованием информации. А умение отличать одни строки от других (в основном командой switch) -- контекстом.


Умение — да, контекст.

SH>А замок, который ключи распознаёт и дверь открывает -- он тоже информацию преобразует? Контекст задаётся положением внутренних деталек, правильные ключи преобразуются в "да", неправильные в "нет". Такой вот информационный прибор.


Если мы говорим о распознавании ключа (т.е. об информационном процессе), то контекст реализуется положением внутренних деталек. А задаётся он потребностью своих впускать, а чужих не впускать.
Почему правильный ключ может провернуть замок, а неправильный — нет? Потому что запихивание правильного ключа в скважину сдвигает штырёчки в то положение, при котором проворачивание возможно, а запихивание неправильного ключа такого эффекта не даёт. Чистая механика. Физика.
Для чего сделано так, что правильный ключ может провернуть замок, а неправильный — нет? Для того, чтобы своих впускать, а чужих не впускать.
Разница между парами "почему — потому" и "для чего — для того" чувствуется?

SH>А будильник? Он не просто стрелку сдвигает, он ещё и звенит когда нужно. Вообще, кстати, без внешних сигналов.


Через будильник я посылаю сигнал "вставай" от себя сейчашнего, бодрствующего себе спящему, которым я буду через восемь часов.

SH>О, ещё про контекст. Помнишь анекдот про термос? Который "а откуда же он знает"? Тождественное преобразование -- это же тоже информационное преобразование. Или "тождественный нуль". Почему нет? Устроить тождественный нуль винчестеру можно молотком. А с простым тождественным информационным преобразованием справляется как винчестер так и бумага. И те самые папирусы.


Что-то про это самое тождественное преобразование я ничего не понял. Анекдот про термос не помню.

SH>Далее, ты там говорил, что при алгоритмических вычисления количество информации не меняется. Компьютер занимается именно ими, значит количество информации он не меняет. Так может ему не нужен контекст для этого? Или он всё же меняет информацию? А что в ней тогда меняется?


Компьютер преобразует одни сигналы в другие сигналы. А в сигналах информация не содержится ни до, ни после преобразования.
Re[13]: Статья: Как найти "информацию"
От: SergH Россия  
Дата: 25.12.09 11:20
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Типа продался иноплатентным киборгам-убийцам?


Типа того. Идеологически нестоек, не развито классовое чутьё.

SH>>А в плане разума? Разум -- осмысленное понятие?

V>Наверно, осмысленное. Я не знаю. Слово настолько затасканное, что я не возьмусь утверждать, может ли в принципе компьютер обладать разумом. И даже не возьмусь утверждать, разумны ли люди.

Вот это неприятно.
Потому что "люди разумны" это для меня наблюдаемый факт. Если теория наблюдаемым фактам противоречит, то в пень такую теорию.

SH>>Тут просто смотри какая штука. Тут не понятно где остановиться. Преобразование битовых строк в компьютере ты называешь преобразованием информации. А умение отличать одни строки от других (в основном командой switch) -- контекстом.


V>Умение — да, контекст.


SH>>А замок, который ключи распознаёт и дверь открывает -- он тоже информацию преобразует? Контекст задаётся положением внутренних деталек, правильные ключи преобразуются в "да", неправильные в "нет". Такой вот информационный прибор.


V>Если мы говорим о распознавании ключа (т.е. об информационном процессе), то контекст реализуется положением внутренних деталек. А задаётся он потребностью своих впускать, а чужих не впускать.

V>Почему правильный ключ может провернуть замок, а неправильный — нет? Потому что запихивание правильного ключа в скважину сдвигает штырёчки в то положение, при котором проворачивание возможно, а запихивание неправильного ключа такого эффекта не даёт. Чистая механика. Физика.
V>Для чего сделано так, что правильный ключ может провернуть замок, а неправильный — нет? Для того, чтобы своих впускать, а чужих не впускать.
V>Разница между парами "почему — потому" и "для чего — для того" чувствуется?

Угу, только я не понял, при чём это тут

Напоминаю, к чему я написал про замок.

Ты сказал, что у компьютера есть контекст, и что он воспринимает/обрабатывает/... информацию (иначе, к чему контекст). Ты пояснил, почему с твоей точки зрения контекст есть. TCP/IP и т.п. Я привёл пример попроще, когда контекст тоже вроде как есть. Значит и тут тоже у нас информация.

Мне кажется, таким образом ты:
— чрезмерно расширяешь понятие информации.
— делаешь это необоснованно. Все происходящие в замке/компьютере объяснимо без этого понятия. Оккам отрежет.
— переносишь выводы, полученные на таких смешных цифровых модельках в голову. Не имея для этого никаких оснований.

V>Что-то про это самое тождественное преобразование я ничего не понял. Анекдот про термос не помню.


Анекдот про термос: http://ifun.su/fun/anecdot/48134/

Тождественное преобразование это когда ничего не меняется. Тождественный нуль это когда была и нету.
Это же информационные преобразования?

V>Компьютер преобразует одни сигналы в другие сигналы. А в сигналах информация не содержится ни до, ни после преобразования.


А в процессе преобразования сигналов?
Делай что должно, и будь что будет
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 25.12.09 13:31
Оценка: 20 (2)
Здравствуйте, goto, Вы писали:

G>Какая удачная статья! Я как раз искал, на кого бы наехать.

Спасибо. А я как раз ищу, кто бы на эту статью пожёстче наехал

G>Физический носитель. А чему там вообще у нас, материалистов, дозволено его не иметь?

Вопрос о первичности материи и сознания? Этот вопрос является животрепещущим только для марксистско-ленинской философии. И прочим монистам.
Пляски с бубном вокруг противопоставления материи и сознания и споров на тему "что первично" и "кто главнее" Мераб Мамардашвили называл "философский детский сад".
Есть мнение, что одновременно верны следующие два утверждения:
1). Материя первична в том смысле, что сознательные явления обязаны быть на чём-то реализованы.
2). Сознание первично в том смысле, что их объективное существование основано на том, что об этой самой объективности можно говорить, только противопоставляя её субъективности. Нес субъекта — нет и объекта. "Нечто" существует, но объектом не является.

G>Инвариантность физическому представлению. Компьютерщина и Пифагор — тут кажется родным и близким, вопросов не возникает. Однако физическое представление — это что? Представление несет информацию или все-таки сигнал? А еще где-то нас дожидается [субъективный] контекст. Недораспутанная запутанность. Смысл утекает.

Смысл не утекает, а рекурсивно зацикливается на другие смыслы. Которые в свою очередь... и так далее до бесконечности. Или циклично.

G>Инвариантность по отношению к любой физике. Вывод неочевиден (для меня). Скажем, можно высосать из пальца физику...

Высосать из пальца можно всё что угодно.
Физика как наука начинается тогда, когда из изучаемого явления изгоняется гомункл. Пока мы считаем, что небесные сферы вращаются ангелами, мы не можем говорить о законах движения. Потому что завтра у ангелов настроение может измениться.
Разговор об информации начинается тогда, когда в изучаемое явление пригоняется гомункл. Если в чём-то нет семантики (т.е. смысла), то оно не является информацией. А о смысле можно говорить только тогда, когда есть кто-то, кому не всё равно. То есть гомункл.
Вот и получается, что если впустили гомункла в рассуждения, кончается физика, а если не впустили — кончается информатика. Одновременно впустить и не впустить невозможно.

Так что, говоря об информации, отправляем лесом все рассуждения о квантах даже не пытаясь в них вчитаться.

G>Статья, я так понимаю, околофилософская. Ты временами опираешься на понятия материального и идеального, объективного и субъективного. При этом доверяешь каким-то дефолтным, стереотипным определениям.

Той философии, которую я на пальцах попытался объяснить выше, достаточно?
Re[7]: Статья: Как найти "информацию"
От: L.Long  
Дата: 25.12.09 16:29
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Как быть с вороной и с восходом Солнца?


С вороной все довольно просто, если рассматривать глаз как устройство для сбора информации об окружающей среде, а мозг — как приемник.
... << RSDN@Home 1.2.0 alpha 4 rev. 1237>>
Чем совершеннее технически средство, тем более примитивные, никчемные и бесполезные сведения при его помощи передаются.(с)Станислав Лем
Re[6]: Статья: Как найти "информацию"
От: DenisCh Россия  
Дата: 25.12.09 18:46
Оценка:
Здравствуйте, Шахтер, Вы писали:

Ш>Компьютер не потребляет энергию. Энергию вообще потребить невозможно -- закон сохранения энергии мешает.


Он потребляет структурированную энергию, переводя в неструктрурированную
... << RSDN@Home 1.2.0 alpha rev. 741>>
Re[3]: Статья: Как найти "информацию"
От: goto Россия  
Дата: 26.12.09 01:45
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, goto, Вы писали:


G>>Какая удачная статья! Я как раз искал, на кого бы наехать.

V>Спасибо. А я как раз ищу, кто бы на эту статью пожёстче наехал

G>>Физический носитель. А чему там вообще у нас, материалистов, дозволено его не иметь?

V>Вопрос о первичности материи и сознания? Этот вопрос является животрепещущим только для марксистско-ленинской философии. И прочим монистам.
V>Пляски с бубном вокруг противопоставления материи и сознания и споров на тему "что первично" и "кто главнее" Мераб Мамардашвили называл "философский детский сад".
V>Есть мнение, что одновременно верны следующие два утверждения:
V>1). Материя первична в том смысле, что сознательные явления обязаны быть на чём-то реализованы.
V>2). Сознание первично в том смысле, что их объективное существование основано на том, что об этой самой объективности можно говорить, только противопоставляя её субъективности. Нес субъекта — нет и объекта. "Нечто" существует, но объектом не является.

Я на это и намекал. Я бы выбросил двусмысленности и лазейки в детские сады. На мой взгляд, в их использовании нет необходимости. Или обозначил кое-какие определения, хотя тогда статья может получиться нудной.

G>>Инвариантность физическому представлению. Компьютерщина и Пифагор — тут кажется родным и близким, вопросов не возникает. Однако физическое представление — это что? Представление несет информацию или все-таки сигнал? А еще где-то нас дожидается [субъективный] контекст. Недораспутанная запутанность. Смысл утекает.

V>Смысл не утекает, а рекурсивно зацикливается на другие смыслы. Которые в свою очередь... и так далее до бесконечности. Или циклично.

Э-э-э? Информация -> сингнал -> информация -> сингнал?

G>>Инвариантность по отношению к любой физике. Вывод неочевиден (для меня). Скажем, можно высосать из пальца физику...

V>Высосать из пальца можно всё что угодно.
V>Физика как наука начинается тогда, когда из изучаемого явления изгоняется гомункл. Пока мы считаем, что небесные сферы вращаются ангелами, мы не можем говорить о законах движения. Потому что завтра у ангелов настроение может измениться.
V>Разговор об информации начинается тогда, когда в изучаемое явление пригоняется гомункл. Если в чём-то нет семантики (т.е. смысла), то оно не является информацией. А о смысле можно говорить только тогда, когда есть кто-то, кому не всё равно. То есть гомункл.
V>Вот и получается, что если впустили гомункла в рассуждения, кончается физика, а если не впустили — кончается информатика. Одновременно впустить и не впустить невозможно.

V>Так что, говоря об информации, отправляем лесом все рассуждения о квантах даже не пытаясь в них вчитаться.


Это мои ошибки. Во-первых, вижу, что зря употребил фразу "высосать из пальца". Это, похоже, породило гомункула, ангелов и кванты. Во-вторых, каюсь, был невнимателен. Оказывается, инвариантен не информационный объект, а некая философия информации. Поскольку я могу только догадываться, что это такое, и не знаю, что подразумевается под инвариантностью, то спорить не буду.

G>>Статья, я так понимаю, околофилософская. Ты временами опираешься на понятия материального и идеального, объективного и субъективного. При этом доверяешь каким-то дефолтным, стереотипным определениям.

V>Той философии, которую я на пальцах попытался объяснить выше, достаточно?

Как бы ты сам ответил? Но я наехал, свои проблемы решил. Спасибо.

На самом деле это было лишь впечатление читателя-дилетанта, который тоже размышляет об информации, но не очень интенсивно. Я думал, что-то будет полезно. Разводить большие философии не стремлюсь, так что можно забить.
Re: Статья: Как найти "информацию"
От: dotneter  
Дата: 26.12.09 09:56
Оценка:
А кто у вас может выступать в роли субъекта с контекстом?
... << RSDN@Home 1.2.0 alpha 4 rev. 1111>>
Talk is cheap. Show me the code.
Re[7]: Статья: Как найти "информацию"
От: mefrill Россия  
Дата: 26.12.09 12:18
Оценка: 6 (1)
Здравствуйте, Voblin, Вы писали:

Ш>>принципа Тьюринга -- это ты о чем?

V>Есть обработка информации (с этим бесполезно спорить так как сам спор является обработкой информации). И есть вычисление. Вычисление — вполне конкретная штука, очень хорошо "прорытая" в середине XX века. Один из выводов заключается в том, что все универсальные вычислители эквивалентны машине Тьюринга.

Это ты малость попутал. Не вывод, а гипотеза, точнее "тезис". И не Тьюринга, а Черча. Не знаю, что такое "универсальный вычислитель" (если ты под этим универсальную машину Тьюринга понимаешь, то у нее как раз и есть проблемы с вычислением, копать надо в сторону "проблема останова"), Черч говорил о том, что любой процесс, интуитивно воспринимаемый как "вычисление" (алгоритм), может быть реализован некоторой рекурсивно-перечислимой функцией. Тьюринг, когда придумал свой формализм представления процесса вычисления, доказал, что любой процесс, который может быть описан рекурсивно-перечислимой функцией, может быть описан и машиной Тьюринга, и наоборот. Т.е., что эти формализмы описывают эквивалентные понятия. В этом он считал еще одно подтвержение того, что гипотеза Черча верна, т.к. разные формализмы приводят к одним и тем же результатам.
Re[7]: Статья: Как найти "информацию"
От: Шахтер Интернет  
Дата: 26.12.09 20:45
Оценка:
Здравствуйте, DenisCh, Вы писали:

DC>Здравствуйте, Шахтер, Вы писали:


Ш>>Компьютер не потребляет энергию. Энергию вообще потребить невозможно -- закон сохранения энергии мешает.


DC>Он потребляет структурированную энергию, переводя в неструктрурированную


Не знаю, что такое структура энергии. Есть боллее высокоэнтропийные виды энергии, и менее. Например, электромагнитное излучение более высокой частоты менее энтропийно.
В XXI век с CCore.
Копай Нео, копай -- летать научишься. © Matrix. Парадоксы
Re[8]: Статья: Как найти "информацию"
От: hexamino http://hexamino.blogspot.com/
Дата: 26.12.09 20:51
Оценка:
Здравствуйте, Шахтер, Вы писали:

Ш>Не знаю, что такое структура энергии. Есть боллее высокоэнтропийные виды энергии, и менее. Например, электромагнитное излучение более высокой частоты менее энтропийно.


Можно поинтерересоваться, сколько энтропии содержит 1 джоуль излучения с частотой w?
Re[7]: Статья: Как найти "информацию"
От: Шахтер Интернет  
Дата: 26.12.09 20:54
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, Шахтер, Вы писали:


V>>>Не надо антиэнтропии. Из розетки в мой комп поступает электрическая энергия, а не электрическая антиэнтропия.

Ш>>Которая целиком в виде тепла отдаётся в окружающую среду.
Ш>>Компьютер не потребляет энергию. Энергию вообще потребить невозможно -- закон сохранения энергии мешает.

V>Совершенно верно.


V>>>Очень принципиален. Речь идет о нащупывании границы применимости принципа Тьюринга. Того самого, который многими горячими головами считается универсальным и вселенским.

Ш>>принципа Тьюринга -- это ты о чем?

V>Есть обработка информации (с этим бесполезно спорить так как сам спор является обработкой информации). И есть вычисление. Вычисление — вполне конкретная штука, очень хорошо "прорытая" в середине XX века. Один из выводов заключается в том, что все универсальные вычислители эквивалентны машине Тьюринга.

V>Если верна гипотеза о том, что любая обработка информации является вычислением, то любой обработчик информации может быть реализован машиной Тьюринга. Если эта гипотеза не верна, то некоторые виды обработки информации (те, которые являются вычислениями) могут быть реализованы на МТ, а все остальные — нет.

Это важный вопрос, но он не принципиален, тем не менее, потому что ну не будет машины Тьюринга, будет что-то ещё. Будут соответственно, какие-нибудь квантовые компьютеры. Всё равно это устройство, которое потребляет/хранит/преобразует сообщения. Возможно, сообщения тоже будут не классическими -- дискретными, а квантовыми.

Ш>>>>Ну почему же. Есть вполне объективные способы измерить если не информацию, то сообщение.

V>>>Ага. Можно ещё мерить книги в килограммах.
Ш>>Неуместная ирония.

V>Может быть.

V>ОК. Меряем сообщение. Но что мы в нём меряем?

Например, количество бит.

V> Т.н. содержание? С этим облом. Для вычисления количества бит по известной формуле ...


Я так и не понял, ты о содержании, или о количестве бит?

Ш>>У сигнала всегда есть субьект-отправитель и субьект-получатель.


V>Как быть с вороной и с восходом Солнца?


Опять твоя мысль от меня ускользнула.
В XXI век с CCore.
Копай Нео, копай -- летать научишься. © Matrix. Парадоксы
Re[8]: Статья: Как найти "информацию"
От: DenisCh Россия  
Дата: 27.12.09 11:11
Оценка:
Здравствуйте, Шахтер, Вы писали:

Ш>>>Компьютер не потребляет энергию. Энергию вообще потребить невозможно -- закон сохранения энергии мешает.

DC>>Он потребляет структурированную энергию, переводя в неструктрурированную
Ш>Не знаю, что такое структура энергии.

Это мои измышлизмы. Есть виды потребялемой энергии — те, кторые можо сразу потребить, и те, которые нужно структуририровать, aka преобразовывать
... << RSDN@Home 1.2.0 alpha rev. 741>>
Re: Статья: Как найти "информацию"
От: jazzer Россия Skype: enerjazzer
Дата: 28.12.09 06:38
Оценка:
Здравствуйте, Voblin, Вы писали:

В выражении «2+2» уже содержится ответ «4».

Только если ты умеешь складывать числа (т.е. контекст).

Сравни контексты:
1) Я знаю, как складывать числа
2) Я знаю, что 2+2=4
3) Я знаю, как складывать числа, и знаю, что 2+2=4

И рассмотри, как изменяется контекст под воздействием сообщений "2+2", "4", "2+2=4", "числа складываются вот так", "2+2=4, числа складываются вот так", "2+2, числа складываются вот так".

Аналогично

Если я скажу своему товарищу, что пароль, установленный на мою учётную запись – это тысячное простое число, то он сможет войти в мой компьютер.

Попробуй скажи своему трехлетнему сыну (если у тебя такой есть), что твой пароль — тысячное простое число, и посмотри, сможет ли он зайти в твой компьютер.
А теперь скажи ему, что пароль — 123456789 (короче, само это тысячное простое число) и посмотри, сможет ли он это сделать теперь.
В каком случае можно сказать, что ты передал ему информацию?

Тут, конечно, можно поспорить, является ли информацией знание частного, если есть знание общего.
Имхо — является, просто потому, что для получения частного нужно совершить работу по извлечению ее из общего (ака вычисление).

Этот подход замечательно работает ровно до тех пор, пока получение информации имеет своей целью устранение неопределённости. Если же никакой неопределённости не было, а получение информации преследовало совсем другие цели, то все рассуждения рассыпаются как карточный домик.

Можно увидеть пример совсем других целей? Имхо, информация — это всегда переход от "не знаю" к "знаю", включая 2+2 и пароль от твоего компа.
Т.е. это изменение контекста:
контекст1 + сообщение -> контекст2

И количество информации, содержащейся в сообщении (сигнале) — это максимальная величина изменения произвольного контекста (понятно, что если ты передаешь информацию, которая частично уже есть в контексте, то информационная ценность соответственно уменьшается, а если она содержится там вся или ее в данном контексте извлечь невозможно, то она равна нулю).
Т.е.
информационная ценность = размер(контекст2) - размер(контекст1)

а объем информации, содержащейся в сообщении — это максимум информационной ценности этого сообщения по всем контекстам.
И это вполне можно мерять в битах.


Насчет аддитивности информации — информацию можно рассматривать как множество (фактов), и применять стандартные теоретико-множественные операции и меры.
Т.е. добавление во множество элемента, который к нем уже есть, ничего не меняет. И т.д.
В этом смысле вычисление — это производство новых фактов из имеющихся и добавление их в контекст. Т.е. контекст все равно расширяется, хоть и нет информации извне.

Примера с квайном я не понял: у тебя уже есть код программы, так что запуск ее, производящий ровно то же самое, никакой информации не генерирует, т.е. это все равно что она не печатает ничего.
jazzer (Skype: enerjazzer) Ночная тема для RSDN
Автор: jazzer
Дата: 26.11.09

You will always get what you always got
  If you always do  what you always did
Re: Статья: Как найти "информацию"
От: TimurSPB Интернет  
Дата: 28.12.09 10:56
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Здравствуйте, уважаемые,


V>Некоторое время назад мы здесь много и весьма интересно рассуждали о природе информации.

V>В качестве "продолжения банкета" предлагаю вам свою статью Как найти "информацию".

V>Если можно, маленькая просьба. Если у кого-то есть знакомые, профессионально занимающиеся этой тематикой (философия информации, философия, теоретическая информатика и т.п.), очень бы мне хотелось на них выйти.

V>Чтобы порка была произведена профессионально

Спасибо за статью.
Сегодня получил ссылочку на курс по этой теме, может будет интересно.
Make flame.politics Great Again!
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 11:53
Оценка:
Здравствуйте, TimurSPB, Вы писали:

TSP>Спасибо за статью.

TSP>Сегодня получил ссылочку на курс по этой теме, может будет интересно.

Если бы я писал о том, как найти информацию, то было бы полезно. Но у меня про то, как найти "информацию", что немножко другое.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 12:21
Оценка:
Здравствуйте, dotneter, Вы писали:

D>А кто у вас может выступать в роли субъекта с контекстом?


Если мы говорим о явлении с информационной точки зрения (т.е. в рассуждениях присутствуют слова "информация", "преобразование информации"), то в роли субъекта может выступать что угодно и кто угодно.

Маленькое ограничение. Рассуждать о процессах, происходящих в неживой природе в информационных терминах — хм... некорректно. Планеты движутся по эллиптическим орбитам не потому, что получают от Солнца информацию о гравитационном поле и преобразуют её в информацию о своём движении.
Re[2]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 13:27
Оценка:
Здравствуйте, jazzer, Вы писали:

V>>В выражении «2+2» уже содержится ответ «4».

J>Только если ты умеешь складывать числа (т.е. контекст).
J>...

Про непоявление новой информации при вычислении — это было "лирическое отступление", добавленное для иллюстрации запущенности проблемы. С применением "контекстной зависимости" информации всё становится просто, ясно и... не интересно для дальнейшего обсуждения.

J>Тут, конечно, можно поспорить, является ли информацией знание частного, если есть знание общего.

J>Имхо — является, просто потому, что для получения частного нужно совершить работу по извлечению ее из общего (ака вычисление).

Отношение "частное-общее" годится, но не всегда. Может быть ещё "до-после". Многие это не принимают в расчёт. Даже если я закрою глаза и "отключусь" ото всех раздражителей, всё равно я сейчас не буду знать, о чём я подумаю через секунду.

J>Можно увидеть пример совсем других целей? Имхо, информация — это всегда переход от "не знаю" к "знаю", включая 2+2 и пароль от твоего компа.

В общем виде это не переход от "не знаю" к "знаю", а переход от "до поступления сигнала" к "после поступления сигнала". А уж что там конкретно произошло — увеличилось знание или всё окончательно запуталось — это уже "интимная подробность", которая в данном случае не важна.
J>Т.е. это изменение контекста:
J>
J> контекст1 + сообщение -> контекст2

Лучше так:
контекст1 + сообщение -> информация -> контекст2

Ничего интересного. Слишком обобщённая "принципиальная схема" того, как работает память.

J>И количество информации, содержащейся в сообщении (сигнале) — это максимальная величина.......

Что за страсть лазить везде с линейкой? Типа если что-то нельзя измерить числом, то об этом и думать не стоит? Какая наивность! Самые важные вещи, о которых больше всего стоит думать, таковы, что никаким числом не меряются: любовь, смерть, долг, справедливость, свобода, честь, красота.

J>Насчет аддитивности информации — информацию можно рассматривать как множество (фактов), и применять стандартные теоретико-множественные операции и меры.


Если мы что-то рассматриваем как множество, то мы можем применять теоретико-множественные операции. Множество фактов — пожалуйста, множество ангелов — нет проблем.
Кстати, что такое факт? А то ведь обидно будет рассматривать множество неизвестно чего.

J>Примера с квайном я не понял: у тебя уже есть код программы, так что запуск ее, производящий ровно то же самое, никакой информации не генерирует, т.е. это все равно что она не печатает ничего.


Если программа (говорю о программе вообще, а не о квайне) написана на C++, то исходника в экзешнике нет.
Re[6]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 14:22
Оценка:
Здравствуйте, D. Mon, Вы писали:

V>>Утверждение о том, что ни в книгах, ни в фильмах, ни в звуках не содержится никакой информации — это есть в теории информации?

DM>Кто Шеннона читал, для того это не новость. Например, сообщение "Земля не плоская" содержит для меня ровно 0 бит информации...

А в новых, интересных, замечательных, долгожданных книгах и фильмах?

V>>То, что вот это моё высказывание само по себе не может быть ни истинным, ни ложным — это банальность?

DM>Высказывания о том, чему не дано определения, вообще трудно оценивать на истинность.

Моему высказыванию нужно давать какое-то дополнительное высоконаучное определение? Вот оно, есть "как есть".

V>>Не очень понятно, что нужно смотреть в статистике. Пресловутые распределения плотностей вероятностей? И что мы там можем найти?

DM>Понимание.

Статистика вообще не склонна давать понимание. По сути, она сейчас обычно применяется как некий шаманский метод делать какие-то выводы из собранной как-то кем-то зачем-то кучи цифири.
Применять тервер и считать среднее арифметическое (ок, корреляцию) легко. А вот обосновать применимость тервера и статистики в данном контретном случае бывает ой как сложно...
Даже когда статистика применена правильно, она никогда не даёт окончательный ответ. И никогда не даёт объяснение. Она даёт только пищу для размышлений.

DM>Я про информационное содержание физических измерений и понятия энтропии.


ОК. Измерение. В ЛЮБОМ измерении участвуют как минимум двое: измеряемый и измеряющий. Объект измерения и субъект измерения.
Обязанность объекта — выдать сигнал. При этом может не происходить никаких информационных процессов, только чистая физика.
Задача измеряющего — принять сигнал и извлечь из него информацию. И в этом процессе уже нет физики, но есть гомункл — семантика (она же смысл) полученных данных.
Караул! В физическое измерение влез подлый гомункл!

DM>Еще раз прошу помедитировать над формулой квантовой энтропии.

Если займусь квантовой физикой, обязательно посмотрю. А сейчас без надобности. В силу принципиальной ортогональности (она же инвариантность и монопенисуальность) информации и физики.
Re[8]: Статья: Как найти "информацию"
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 29.12.09 14:24
Оценка:
Здравствуйте, L.Long, Вы писали:

LL>С вороной все довольно просто, если рассматривать глаз как устройство для сбора информации об окружающей среде, а мозг — как приемник.


Это понятно. Не понятно, где искать отправителя сообщения.
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.