Re[22]: Несколько дурацких вопросов по теории информации
От: vdimas Россия  
Дата: 06.02.09 00:07
Оценка:
Здравствуйте, AndrewVK, Вы писали:

AVK>Та информация, которая рассматривается в теории информации — штука весьма объективная со всем ее содержанием. Твоя интерпретация этого содержимого — субъективна.


С "субъективной" т.з. термин "информация" связан с процессом накопления/обмена знаниями, х.з. зачем в термодинамике использовали этот же термин. (Субъективно/объективно — как-то несерьёзно)

Для двух этих понятий надо было придумать два разных термина. Вернее, для "объективного" его значения, ибо "субъективное" толкование существовало тысячелетия.
... << RSDN@Home 1.2.0 alpha rev. 786>>
Re[18]: Несколько дурацких вопросов по теории информации
От: vdimas Россия  
Дата: 06.02.09 00:48
Оценка:
Здравствуйте, AndrewVK, Вы писали:

AVK>Есть масса способов перейти от аналогового к цифровому миру. См., к примеру, преобразование Фурье


И где тут "цифры"? Тоже аналоговая ф-ия.

Для дискретного преобразования Фурье требуется предварительная дискретизация, а это уже к Найквисту со всеми ограничениями и прочими рамками.

И вообще, в цифровом виде преобразование Фурье теряет всё что можно, вырождаясь в конечную систему свёрток. ХЗ почему название "Фурье" оставили, при переводе обратно в "аналог" так и остаётся система свёрток, вместо получения исходного интеграла Фурье.
... << RSDN@Home 1.2.0 alpha rev. 786>>
Re[24]: Несколько дурацких вопросов по теории информации
От: vdimas Россия  
Дата: 06.02.09 00:48
Оценка:
Здравствуйте, AndrewVK, Вы писали:

AVK>Пример аналогового преобразования, которое можно выполнять и в цифровом виде. Математика для перехода от одного к другому имеется.


А бывает аналоговое преобразование Фурье в виде схемы?
... << RSDN@Home 1.2.0 alpha rev. 786>>
Re[22]: Несколько дурацких вопросов по теории информации
От: vdimas Россия  
Дата: 06.02.09 00:48
Оценка:
Здравствуйте, AndrewVK, Вы писали:

AVK>В десятый раз повторяю — абсолютная точность невозможна и в аналоговых вычислениях.


Аналоговые вычисления производили не из-за точности (она потенциально хуже, и идеальные ОУ ничего не спасут, т.к. интегрирование на банальном конденсаторе происходит, чья ёмкость и точки утечки скачут от температуры), а из-за непрерывности во времени (читай из-за быстродействия). Последние годы явно неактуально.
... << RSDN@Home 1.2.0 alpha rev. 786>>
Re[21]: Несколько дурацких вопросов по теории информации
От: craft-brother Россия  
Дата: 06.02.09 05:31
Оценка:
Здравствуйте, Voblin, Вы писали:

V>Если это таки разные понятия, то они легко преобразуются друг в друга. Например, так:

V>
Информация ->    данные   ->   данные    ->   данные    -> информация
V>(человек 1)  (компьютер 1)  (канал связи)  (компьютер 2)   (человек 2)


В схеме, ИМХО, упущено два важных момента.

1) На выходе у человека 1 есть «передатчик», который переводит его мысль на язык данных. Многие люди имеют большие знания но сформулировать их не могут…

2) На входе у человека 2 есть «приемник», который извлекает из данных информацию. Свисток для собаки Павлова – приглашение к обеду, а для милиционера – призыв на помощь.

Для меня приемник/передатчик самое темное место в этой цепочке.

V>Тем более нужно обобщающее понятие!


Почему сразу обобщать? Информация и так обобщена, дальше некуда. Чуть ли не первооснова Вселенной! Науке известны два метода: синтез и анализ. Мы пока еще не завершили стадию анализа. Поэтому все, что можно разделить, стоит разделять.
Re[23]: Несколько дурацких вопросов по теории информации
От: AndrewVK Россия http://blogs.rsdn.org/avk
Дата: 06.02.09 08:19
Оценка:
Здравствуйте, vdimas, Вы писали:

V> х.з. зачем в термодинамике использовали этот же термин.


А его там и не использовали, там использовали термин энтропия. А термин информации использовали в теории информации, а это все таки не термодинамика.

V> (Субъективно/объективно — как-то несерьёзно)


Как раз таки очень даже серьезно и корень большинства непоняток в топикпе.
... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
AVK Blog
Re[25]: Несколько дурацких вопросов по теории информации
От: AndrewVK Россия http://blogs.rsdn.org/avk
Дата: 06.02.09 08:19
Оценка:
Здравствуйте, vdimas, Вы писали:

V>А бывает аналоговое преобразование Фурье в виде схемы?


Схемы чего?
... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
AVK Blog
Re[23]: Несколько дурацких вопросов по теории информации
От: AndrewVK Россия http://blogs.rsdn.org/avk
Дата: 06.02.09 08:19
Оценка:
Здравствуйте, vdimas, Вы писали:

V>а из-за непрерывности во времени


Что значит "непрерывности во времени"?

V> (читай из-за быстродействия)


Быстродействие (и латентность) аналоговых вычислителей точно так же ограничена переходными процессами в цепях. Изменение сигнала на выходе при изменении сигнала на входе происходит далеко не мгновенно.
... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
AVK Blog
Re[24]: Несколько дурацких вопросов по теории информации
От: vdimas Россия  
Дата: 06.02.09 12:11
Оценка:
Здравствуйте, AndrewVK, Вы писали:

V>>а из-за непрерывности во времени


AVK>Что значит "непрерывности во времени"?


V>> (читай из-за быстродействия)


AVK>Быстродействие (и латентность) аналоговых вычислителей точно так же ограничена переходными процессами в цепях. Изменение сигнала на выходе при изменении сигнала на входе происходит далеко не мгновенно.


Хотел начать объяснять ответ на первый вопрос, но сам же всё знаешь, как видно из второго вопроса. Замечание только в том, что основные переходные процессы в случае ПИД не паразитные, а именно являются частью алгоритма расчёта, т.е. для цифрового варианта всё точно так же. Основная мини-операция большинства расчётов (что на направление цели, что на скорость, что на классификацию) — это реал-тайм интегрирование результатов свёрток, т.е. ФНЧ некоего порядка с неким Т(тау). Так что, разве что для дифференциальных блоков это более критично.

В общем, для некоей системы управления (напр. схемы слежения за целью — наиболее популярная область аналоговых вычислений в своё время), некое время реакции должно быть максимально близко к расчётной T схемы. Для цифровых вычислений лет 40 назад и еще долгое время это было невозможно. Если же заостряться на доп. паразитных переходных процессах, то тут такой аргумент, что долгое время на любой элементной базе переходной процесс фронта сигнала от 0 к 1 явно был быстрее, чем тысячи тактов цифрового процессора (т.е. точно таких же переходных процессов в обе стороны 0-1-0). Цифровые вычисления добавляли весьма ощутимые задержки к собственным расчётным T системы. Не зря первые реалтаймовые цифровые вычислители были на небольших вычислительных ячейках построены, каждый из которых гонял циклы длиной в единицы-пару десятков операций максимум (откуда и пошли сигнальные процы).

Почему считаю, что сейчас неактально? Из-за всяких L1/L2/L(i), т.к. переходные процессы в выч. системах разделились на "внешние" и "внутренние", внутренняя частота вычисляющих ядер может быть на порядки выше граничной максимальной частоты периферийных портов, что практически нивелирует доп. задержки на расчёты.

--------
Тем не менее, то ли медленно в военку вводятся новейшие разработки в области процессоров, то ли еще что, но современные цифровые компы (на кораблях) расчитывают целеуказания не намного быстрее, чем аналоговые в своё время (хотя точнее, и по множеству целей). Потому, ИМХО, низколетящие на скорости 3М ПКР и являются пока что грозным оружием, что от момента появления из-за горизонта до встречи с целью 6 сек примерно проходит, а половину из этих 6 сек требуется для расчётов.
Примечательно еще то, что после испытаний америкосами купленных "москитов", предложенная мера борьбы со "стаей" ракет заключалась в установке вместо одного расчётного модуля (как сейчас), 3-4 их штуки с согласовваным расчётом целей, чтобы каждый модуль считал свою цель. Ибо сейчас все компьютеры группы кораблей независимо набрасываются на первую же цель, а две ракеты полностью насыщают электронику группы кораблей произвольного размера.
... << RSDN@Home 1.2.0 alpha rev. 786>>
Re[26]: Несколько дурацких вопросов по теории информации
От: vdimas Россия  
Дата: 06.02.09 12:11
Оценка:
Здравствуйте, AndrewVK, Вы писали:

V>>А бывает аналоговое преобразование Фурье в виде схемы?


AVK>Схемы чего?


Ну, обсуждалась же возможность замены аналоговых расчётов цифровыми.
Я вот разве что могу дискретное преобразование фурье на аналоговых элементах посчитать, а исходную непрерывную аналитическую ф-ию — даже не представляю как.
... << RSDN@Home 1.2.0 alpha rev. 786>>
Re[22]: Несколько дурацких вопросов по теории информации
От: Voblin Россия http://maslyaew.narod.ru/
Дата: 06.02.09 12:50
Оценка:
Здравствуйте, craft-brother, Вы писали:

CB>1) На выходе у человека 1 есть «передатчик», который переводит его мысль на язык данных. ...

CB>2) На входе у человека 2 есть «приемник», который извлекает из данных информацию. ...
CB>Для меня приемник/передатчик самое темное место в этой цепочке.

Мне, практикующему специалисту по автоматизированным системам управления, такое разделение обсуждаемого понятия на информацию и данные вообще кажется бессмысленным. Тем более бессмысленным кажется "затемнение" понятий приёмник и передатчик. И вот почему.

Автоматизированные системы — это такие системы, в состав которых в качестве подсистем включаются и технические средства, и люди. Бывает даже так, что в качестве подсистем включаются группы людей (есть такие понятия как "Групповая работа", "коллегиальное решение", "кворум").

В средненькой такой автоматизированной системе могут быть тысячи связанных в причудливый клубок информационных потоков следующих видов:
1. Человек -> машина ("передатчик"?)
2. Машина -> машина
3. Машина -> человек ("приёмник"?)
4. Человек -> человек
При этом, я подозреваю, в качестве "машины" может выступать и компьютер с базой данных, и амбарная книга, и доска объявлений, и какой-нибудь железный механизм.

Если мы при проектировании системы вместо проектирования единого информационного потока будем заниматься отдельно информацией, и отдельно данными, то мы поимеем страшный геморрой. У нас порвётся половина обратных связей! Рассмотрение информационной системы как единого целого становится просто невозможным. Game over.

В области автоматизированных систем только понятия информация и данные являются синонимами. И спорить с этим не только бессмысленно, но и деструктивно.

Вы скажете, что автоматизированные системы — это довольно узкая область? Отнюдь. Автоматизированной системой является не только программка складского учёта, но и:
  • система государственного управления;
  • мировая финансовая система (ныне глючащая);
  • продовольственный магазин;
  • сайт RSDN;
  • движущееся транспортное средство (мы говорим, что при переходе дороги мы пропускаем несущиеся машины, хотя, на самом деле, машина видит нас глазами её водителя, и принимает решения его мозгом).

    Да, чуть не забыл ещё одно свойство информации, которое можно добавить в список свойств в корневой топик:
    3. Информационный процесс инвариантен относительно способа его реализации. Если, конечно, способ реализации выбран корректно и процесс не вышел за заданные ограничения. (сейчас кто-нибудь предложит поискать человека в источнике ограничений, но, уверяю вас, это зря)

    Именно это свойство информации и породило то, что сейчас мы называем IT. Если бы JPG-файл нёс нам не ту же информацию, что и классическая фотография, цифровое фото вообще бы не возникло.

    Ни суть, ни результат внесения ста рублей на мобильник не зависит от того, заплатили мы через девушку, сидящую в ларьке, или запихнули свой стольник в платёжный терминал.
  • Re[24]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 13:10
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>А его там и не использовали, там использовали термин энтропия.


    Ага, который опирается на термин сведений или различимых состояний (более точно — интересующе-различимых состояний, пока держим в уме это важное замечание).

    Загвоздка в том, в классическом определении энтропии не дано определение термину "сведения", которое ИМХО, весьма субъективно, отсюда я склонен относить конкретную энтропию чего-либо так же к субъективным понятиям. Например, есть энтропия из квантовой электродинамики, есть в термодинамике (в квантовой в т.ч.), есть в химии, есть в алгоритмической теории информации. Абстрактно энтропия обозначает одно и то же, а по факту — некая оценка в заданном масштабе интересующих подробностей, т.е. всегда субъективно на любом уровне подробностей хотя бы из-за факта субъективности выбора самого уровня.


    V>> (Субъективно/объективно — как-то несерьёзно)


    AVK>Как раз таки очень даже серьезно и корень большинства непоняток в топикпе.


    Имел ввиду, что несерьёзность в том, что невозможно формализовать — где кончается объективность и начинается субъективность. Объективность — это, ИМХО, некий независимо от нас существующий "абсолют", а по факту он упирается в наше представление о мироздании, которое изначально субъективно, хотя бы потому, что постоянно меняется/уточняется со временем (а мы склюнны собственно текущее состоянее наших знаний о мире и считать за некую "объективность", за неимением лучшего). Вот такие каламбуры.

    Потому и может "А.С.Пушкин. Повести Грелкина." являться и не являться информацией одновременно, вовсе не из-за субъективности (субъективно всё и всегда, коль субъективно наше представление о мироздании), а из-за выбора единицы измерения информации — "сведение". Вот, собсно, фундаментальная вещь, формулировка которой выходит за рамки теории информации, ибо сама теория на ней построена, и применима, заметь, к произвольному базису сведений (напомню про энтропию в термодинамике, квантовой термодинамике, химии и т.д., разница тут именно в том, что считается "сведением")

    ---------
    Я тут уже намекал, что надо копать в сторону "кол-ва информации", т.е. в сторону осмысления единиц измерения оной, потому как теория информации применима к любому базису сведений (и пресловутые попугаи — тоже вполне себе базис, а для алгоритмической — взяли бит, ничем не лучше).

    ---------
    Заведомо не хочу вдаваться в обсуждение эффектов в квантовой электро и термодинамике, связанных с наблюдаемостью, ибо наблюдение/регистрация — суть обмен энергией/информацией, т.е. сам факт наблюдения за системой нарушает её замкнутость.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[25]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 13:58
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V>Ага, который опирается на термин сведений


    Нет там никаких сведений.

    V>Загвоздка в том, в классическом определении энтропии не дано определение термину "сведения"


    Разумеется.

    V>, которое ИМХО, весьма субъективно


    Зато состояния системы — объективны.

    V>, отсюда я склонен относить конкретную энтропию чего-либо так же к субъективным понятиям.


    Принцип неопределенности тоже субъективен?

    AVK>>Как раз таки очень даже серьезно и корень большинства непоняток в топикпе.


    V>Имел ввиду, что несерьёзность в том, что невозможно формализовать — где кончается объективность и начинается субъективность.


    И не надо. Теория информации под информацией имеет в виду вполне конкретную вещь, и законы, которые там описываются, вполне объективны. А то что ты из терминов высасываешь феерические построения, это сугубо твои проблемы.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[27]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 13:58
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    AVK>>Схемы чего?


    V>Ну, обсуждалась же возможность замены аналоговых расчётов цифровыми.

    V>Я вот разве что могу дискретное преобразование фурье на аналоговых элементах посчитать

    Ты можешь обычное преобразование Фурье сделать аналоговым способом.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[25]: Несколько дурацких вопросов по теории информации
    От: AndrewVK Россия http://blogs.rsdn.org/avk
    Дата: 06.02.09 13:58
    Оценка:
    Здравствуйте, vdimas, Вы писали:

    V> Замечание только в том, что основные переходные процессы в случае ПИД не паразитные, а именно являются частью алгоритма расчёта


    Алгоритм расчета аналогового вычислителя??? Если мы считаем сумму входов, то на выходе реальная сумма будет отставать от значения входов на вполне конкретную величину, которую сделать равной 0 не возможно в принципе. Никаких алгоритмов там нет, и запаздывание никоим образом не является полезным эффектом.

    V>Почему считаю, что сейчас неактально? Из-за всяких L1/L2/L(i), т.к. переходные процессы в выч. системах разделились на "внешние" и "внутренние", внутренняя частота вычисляющих ядер может быть на порядки выше граничной максимальной частоты периферийных портов, что практически нивелирует доп. задержки на расчёты.


    Все намного проще. В аналоговых вычислителях латентность неразрывно связана с точностью. Чем выше нужна точность, тем ниже латентность, и тем дороже (экспоненциально дороже) при фиксированной латентности становится аппаратура. А для цифровых вычислителей повышение точности дается намного дешевле, и цена аппаратуры для фиксированной латентности растет меньше чем линейно.
    ... << RSDN@Home 1.2.0 alpha 4 rev. 1137 on Windows Vista 6.0.6001.65536>>
    AVK Blog
    Re[28]: Несколько дурацких вопросов по теории информации
    От: Voblin Россия http://maslyaew.narod.ru/
    Дата: 06.02.09 14:06
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Ты можешь обычное преобразование Фурье сделать аналоговым способом.


    Я могу! При помощи призмы и фотобумаги. Если я не ошибаюсь, спектрометр изобрели в 19-м веке.
    Re[26]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 15:45
    Оценка: -1
    Здравствуйте, AndrewVK, Вы писали:

    V>>Ага, который опирается на термин сведений


    AVK>Нет там никаких сведений.


    Есть, в одних формулировках применяется "сведение", в других "знание о системе", не суть.


    V>>, которое ИМХО, весьма субъективно


    AVK>Зато состояния системы — объективны.


    И что? Состояние — да, а информация и энтропия — увы, субъективны.
    Отсюда и путаница.

    V>>, отсюда я склонен относить конкретную энтропию чего-либо так же к субъективным понятиям.


    AVK>Принцип неопределенности тоже субъективен?


    Еще как, ибо зиждется на, я уверен, субъективном представлении о мироздании.


    V>>Имел ввиду, что несерьёзность в том, что невозможно формализовать — где кончается объективность и начинается субъективность.


    AVK>И не надо. Теория информации под информацией имеет в виду вполне конкретную вещь,


    Это ты про общую теорию информации?


    AVK> и законы, которые там описываются, вполне объективны.


    Они вполне абстрактны, как законы гармонических колебаний. Не удивляет, почему формулы энтропии для термодинамики и для символьной информации так похожи? Не значит ли это независимости от "базиса"?

    ИМХО, общая теория информации оперирует наиболее общим известным на сегодняшний день день базисом (в базисе вещества и энергии), только и всего.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[26]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 15:45
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:

    AVK>Алгоритм расчета аналогового вычислителя??? Если мы считаем сумму входов, то на выходе реальная сумма будет отставать от значения входов на вполне конкретную величину, которую сделать равной 0 не возможно в принципе.


    Ну вот сумматор на 3-х сопротивлениях имеет задержки, ограниченные снизу только геометрическим размером этих сопротивлений, и имеет на порядки большее быстродействие, чем цифровой сумматор на той же элементной базе. Но и это фигня, аналоговые вычислители использовались в основном для нахождения интеграллов (и реже — дифференциалов), а в первом случае без Т(тау) никак, мы же считаем конечный интеграл по некоему диапазону. Входная ф-ия — ток от времени. Учитывая, что функция в обычном применении была "реалтаймовая", то и расчёт был реалтаймовый, т.е. интеграция зачастую в алгоритмах подменялась НЧ фильтрацией с той самой заданной T.

    AVK>Никаких алгоритмов там нет, и запаздывание никоим образом не является полезным эффектом.


    Ммм, еще как есть. Структура вычислителя определяет алгоритм. (А по требуемым алгоритмам создаётся структура )


    AVK>Все намного проще. В аналоговых вычислителях латентность неразрывно связана с точностью.


    Всего-лишь один из показателей, и как для прочих не должен превышать заданной погрешности. В классических применениях латентность вычислителей несоизмерима меньше погрешности заданного T.

    AVK>Чем выше нужна точность, тем ниже латентность, и тем дороже (экспоненциально дороже) при фиксированной латентности становится аппаратура.


    Как-то всё с ног на голову.
    Чем выше нужна точность, тем прецензионней изготовление и выше то самое пресловутое собственное T.
    Такие дела. Кстати, для АЦП это так же верно, чем быстродейственней АЦП на той же элементной базе, тем менее он точен.


    AVK>А для цифровых вычислителей повышение точности дается намного дешевле, и цена аппаратуры для фиксированной латентности растет меньше чем линейно.


    Вот еще, это только для определённых диапазонов требуемых задержек. Для реалтаймового распознавания/обнаружения быстроменяющегося сигнала использовались и еще долго будут использоваться аналоговые способы расчётов.
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re[28]: Несколько дурацких вопросов по теории информации
    От: vdimas Россия  
    Дата: 06.02.09 15:45
    Оценка:
    Здравствуйте, AndrewVK, Вы писали:


    V>>Ну, обсуждалась же возможность замены аналоговых расчётов цифровыми.

    V>>Я вот разве что могу дискретное преобразование фурье на аналоговых элементах посчитать

    AVK>Ты можешь обычное преобразование Фурье сделать аналоговым способом.


    Намекаешь на АЧХ/ФЧХ — измерители?
    Одновременно выход-то не получить. Т.е. из бесконечного ряда частот измеряется только одна частота в один момент времени, а значит обратно восстановить композитный сигнал никак.

    С дискретным интегралом проще, нужна всего-лишь сетка корреляторов (умножитель + генератор) для некоего диапазона частот. Шаг генераторов расчитывается всё по той же частоте Найквиста. Используя эти же экземпляры генераторов сигнал восстанавливается с очень большой точностью, кстати, даже если само преобразование было с погрешностью. (Этот же алгоритм, кстати, используется и в цифровых расчётах).
    ... << RSDN@Home 1.2.0 alpha rev. 786>>
    Re: Несколько дурацких вопросов по теории информации
    От: SergH Россия  
    Дата: 06.02.09 16:24
    Оценка:
    Здравствуйте, Voblin, Вы писали:

    ...

    Ещё немного физического дерьма на вентилятор

    http://science.compulenta.ru//396984/?phrase_id=10438841

    ну и

    Квантовая телепортация

    Делай что должно, и будь что будет
    Подождите ...
    Wait...
    Пока на собственное сообщение не было ответов, его можно удалить.