Здравствуйте, Shmj, Вы писали:
S>Нужно смотреть внутренние процессы, которые происходят в самом девайсе (к примеру, в мозге). Благо есть такая шутка как МРТ, которая в принципе это позволяет. S>Т.е. в своих суждениях ты не учел мелкий нюанс — есть внутренние процессы, а есть внешнее их проявление. По этому ошибся.
Я сделал предположение, что ты проводишь разделение по "субъективному" и "объективному". Исследований по анализу эмоций с помощью МРТ полно. Но связь между результатами МРТ и переживанием эмоции все равно идет через субъективный мир. Человек говорит что ему страшно, исследователь смотрит на паттерны нейроактивности и строит затем строит обобщения. Это называет поиск нейрокоррелятов сознания. Но это возможно если только мы доверяем человеческому субъективному "мне страшно".
У тебя робот. Он говорит, что ему страшно, а заглядываешь ему в черепушку. Когда он говорит, что ему страшно — у него внутри загорается красная лампочка. Означает ли это, что робот переживает страх?
Здравствуйте, MaximVK, Вы писали:
MVK>Я сделал предположение, что ты проводишь разделение по "субъективному" и "объективному". Исследований по анализу эмоций с помощью МРТ полно. Но связь между результатами МРТ и переживанием эмоции все равно идет через субъективный мир. Человек говорит что ему страшно, исследователь смотрит на паттерны нейроактивности и строит затем строит обобщения. Это называет поиск нейрокоррелятов сознания. Но это возможно если только мы доверяем человеческому субъективному "мне страшно".
Проверь на себе Себе то ты доверяешь.
MVK>У тебя робот. Он говорит, что ему страшно, а заглядываешь ему в черепушку. Когда он говорит, что ему страшно — у него внутри загорается красная лампочка. Означает ли это, что робот переживает страх?
Проверять нужно на себе — тогда вопрос отпадает. Потом так же проверяешь на других — уже на основе статистики делаешь вывод кто врет а кто нет.
Далее — детализируешь, создаешь искусственный аналог. Ну и уже описывал как далее проверять — нужна возможность временно отключать механизмы и заменять на искусственный аналог. Ключевое слово — временно.
Здравствуйте, Shmj, Вы писали:
S>Не важно изолированный или нет — сделай не изолированный девайс, но чтобы он наслаждался и страдал. Пока 0 гипотез как это сделать.
Уже ведь много раз предъявляли этот девайс. Ты не смог доказать, что он не страдает по-настоящему.
А смог предъявить только свои эстетические впечатления — почему некрасиво думать что он страдает.
Разве еще не понятно, что с любым другим девайсом будет абсолютно то же самое?
Здравствуйте, Silver_S, Вы писали:
S_S>Уже ведь много раз предъявляли этот девайс. Ты не смог доказать, что он не страдает по-настоящему. S_S>А смог предъявить только свои эстетические впечатления — почему некрасиво думать что он страдает. S_S>Разве еще не понятно, что с любым другим девайсом будет абсолютно то же самое?
Я тебе уже несколько раз формально объяснял где твоя ошибка. Глупостей можно много нагенерить, типа чайник на плите страдает и т.д.
Нужно смотреть происходящие процессы — благо есть такая штука как МРТ, которая позволяет заглянуть во внутрь на живую.
Здравствуйте, Shmj, Вы писали:
S>Проверь на себе Себе то ты доверяешь.
Это будет частный случай. Тебе нужны какие-то основания, чтобы его обобщить и перенести на остальных. В эмпирическом поле ты их себе запретил искать.
S>Проверять нужно на себе — тогда вопрос отпадает. Потом так же проверяешь на других — уже на основе статистики делаешь вывод кто врет а кто нет.
А тут уже разрешил
Но мы опять придем к усредненному нейрокорреляту эмоции. Но это не дает моста от нейрокоррелята к самому факту переживания.
S>Далее — детализируешь, создаешь искусственный аналог. Ну и уже описывал как далее проверять — нужна возможность временно отключать механизмы и заменять на искусственный аналог. Ключевое слово — временно.
Это, имхо, интересный ход, но все равно не снимает главный вопрос, так как доступа к субъективному нет, что у человека, что у робота. Так ты только проверишь сохранение функции, но не самого переживания.
Схожий мыслительный эксперимент используется в философии сознания:
У человека один за другим заменяют биологические нейрон на искусственные. Каждый искусственный нейрон точно воспроизводит входы и выходы исходного. Вопрос: сохранится ли сознание?
Однозначного ответа нет и зависит от позиции что именно кодирует сознание. Два наиболее популярных взгляда:
1) Функциональный — сознание кодируется организацией связей,
2) Биологический — сознание кодируется не только структурой, но и тем из чего сделаны элементы системы
У каждой позиции есть свои сильные и слабые стороны. Но ключевая проблема остается в обоих случаях: из сохранения функции не следует сохранение субъективного опыта. А именно это в твоем рассуждении молча предполагается, но никак не доказывается.
Здравствуйте, Silver_S, Вы писали:
S_S>Уже ведь много раз предъявляли этот девайс. Ты не смог доказать, что он не страдает по-настоящему.
Он не страдает, он вредничает и получает от этого удовольствие.
Здравствуйте, MaximVK, Вы писали:
S>>Проверь на себе Себе то ты доверяешь. MVK>Это будет частный случай. Тебе нужны какие-то основания, чтобы его обобщить и перенести на остальных. В эмпирическом поле ты их себе запретил искать.
Каждый сможет проверить на себе — вот ключ. Кому интересно — может проверить. После публикации достаточно убедительного объяснения — все меньше желающих будет проверять.
S>>Проверять нужно на себе — тогда вопрос отпадает. Потом так же проверяешь на других — уже на основе статистики делаешь вывод кто врет а кто нет. MVK>А тут уже разрешил MVK>Но мы опять придем к усредненному нейрокорреляту эмоции. Но это не дает моста от нейрокоррелята к самому факту переживания.
Коррелят — это фундаментальная частица.
S>>Далее — детализируешь, создаешь искусственный аналог. Ну и уже описывал как далее проверять — нужна возможность временно отключать механизмы и заменять на искусственный аналог. Ключевое слово — временно.
MVK>Это, имхо, интересный ход, но все равно не снимает главный вопрос, так как доступа к субъективному нет, что у человека, что у робота. Так ты только проверишь сохранение функции, но не самого переживания.
Это сам человек должен сказать — он должен находиться в сознании. Вот ключ.
Здравствуйте, Shmj, Вы писали:
S_S>>Уже ведь много раз предъявляли этот девайс. Ты не смог доказать, что он не страдает по-настоящему.
S>Я тебе уже несколько раз формально объяснял где твоя ошибка. Глупостей можно много нагенерить, типа чайник на плите страдает и т.д. S>Нужно смотреть происходящие процессы — благо есть такая штука как МРТ, которая позволяет заглянуть во внутрь на живую.
Такое что ли доказательство: если нейробиологи по МРТ найдут хоть одно отличие от ЦНС человека, значит у него не может быть настоящих ощущений(только иммитирует)? А если нейробиологи не нашли отличий, значит ощущения настоящие?
Хоть это и не доказательство а определение(или аксиома). Но хоть что-то появилось, хоть и не все с ним согласятся, т.к. здесь дело вкуса.
Но какая польза от этого определения, для чего будешь его применять?
Для вопроса переселять ли свое сознание в существо, которое прошло этот тест на МРТ? Реальность не подстраивается под твои определения. Т.к. все равно ты ничего не доказал и экспериментально не проверил.
Здравствуйте, Silver_S, Вы писали:
S_S>Такое что ли доказательство: если нейробиологи по МРТ найдут хоть одно отличие от ЦНС человека, значит у него не может быть настоящих ощущений(только иммитирует)? А если нейробиологи не нашли отличий, значит ощущения настоящие? S_S>Хоть это и не доказательство а определение(или аксиома). Но хоть что-то появилось, хоть и не все с ним согласятся, т.к. здесь дело вкуса.
Нет. Нужно научиться временно отключать части мозга (на живую, чтобы чел. был сознании) а также временно заменять их на искусственные аналоги.
Если ты не веришь что у других людей сознание такое же как у тебя — то сможешь проверить на себе.
Другого доказательства нет.
Просто от балды сказать — вот оно страдает — нельзя.
S_S>Но какая польза от этого определения, для чего будешь его применять? S_S>Для вопроса переселять ли свое сознание в существо, которое прошло этот тест на МРТ? Реальность не подстраивается под твои определения. Т.к. все равно ты ничего не доказал и экспериментально не проверил.
Если тест прошло — т.е. ты на живую ощутил отключение нейронных коррелятов ощущения а потом из заменили искусственными аналогами и ты на живую ощутил что они действительно работают — то проблемы нет. Но для этого нужно:
1. Найти корреляты.
2. Разобраться как работают.
3. Сделать искусственный аналог.
4. Доказать что аналог работает (см. выше как).
Здравствуйте, Shmj, Вы писали:
S>Просто от балды сказать — вот оно страдает — нельзя.
Но ты ведь говоришь от балды, что не страдает. Никаких доказатльств не привел.
У тебя единственная претензия к этому ящичку: Чтобы признать, что у него ощущения настоящие, тебе хочется чтобы он был больше похож на человека. Это желание понятно. Но не стоит путать такие желания с наукой, доказательствами, гипотезами. Потому что к науке одни требования, к мифотворчеству совсем другие требования — годное оно или нет.
Здравствуйте, Silver_S, Вы писали:
S>>Просто от балды сказать — вот оно страдает — нельзя. S_S>Но ты ведь говоришь от балды, что не страдает. Никаких доказатльств не привел.
Привел строгие доказательства — ты проигнорил. ПОтом привел тебе второй раз — опять ты промолчал. Третий раз искать лень — могу за деньги найти те две ссылки, кто я тебе дал.
S_S>У тебя единственная претензия к этому ящичку: Чтобы признать, что у него ощущения настоящие, тебе хочется чтобы он был больше похож на человека. Это желание понятно. Но не стоит путать такие желания с наукой, доказательствами, гипотезами. Потому что к науке одни требования, к мифотворчеству совсем другие требования — годное оно или нет.
Нет, не больше похож на человека. Это легко опровергается другим путем — я тебе уже давал ссылку на код даже.
Код приводил на C++, который полностью на 100% закрывал этот вопрос.
ИМХО, ты очень небрежно рассуждаешь. Ты можешь затронуть интересный вопрос, но дальше начинается каша из несвязных мыслей.
Классическая логика довольно просто устроена — там всего три закона. Нужно просто внимательно следить, что они не нарушаются в процессе рассуждения. Я тебе уже в ответе на один пост привел примера разбора.
С точки зрения структуры же просто:
1) Формулируешь гипотезу и уточняешь ключевые понятия
2) Формулируешь предпосылки (логические, эмпирические, интуитивные)
3) Формулируешь критерий истинности, т.е. что здесь вообще будет означать "истинно"
4) Формулируешь критерий проверяемости
5) Проводишь рассуждение и следишь за корректностью вывода
6) Опционально проверяешь результат на контрпримеры
Понятно, что пост из трех предложений не нужно буквально разворачивать по такой схеме. Но держать ее в голове полезно и по мере написания текста сверяться с ней: что именно ты утверждаешь, на что опираешься, и как это будет считываться другим человеком.
Если структура читается ясно, тогда уже возможен нормальный спор по существу:
— можно не согласиться с предпосылками
— может выясниться, что вы вкладываете разные смыслы в одни и те же понятия
— можно разойтись в критериях истинности
— можно указать на ошибку в самом выводе
И это уже повернет разговор в продуктивное русло. А сейчас это больше похоже на распутывание клубка лески: здесь потянул — там затянулось.
MVK>Но мы опять придем к усредненному нейрокорреляту эмоции. Но это не дает моста от нейрокоррелята к самому факту переживания. S>Коррелят — это фундаментальная частица.
Вот какая тут связь? При чем тут фундаментальная частица?
S>Каждый сможет проверить на себе — вот ключ. Кому интересно — может проверить. После публикации достаточно убедительного объяснения — все меньше желающих будет проверять. S>Это сам человек должен сказать — он должен находиться в сознании. Вот ключ.
Что человек должен сказать? К чему этот ключ? Что я тут должен додумать?
Здравствуйте, Shmj, Вы писали:
S>Привел строгие доказательства — ты проигнорил. ПОтом привел тебе второй раз — опять ты промолчал. Третий раз искать лень — могу за деньги найти те две ссылки, кто я тебе дал.
Они в предыдущих 2 постах, про то что тебе не нравятся МРТ этого ящичка?
Или про это?:
1. Найти корреляты.
2. Разобраться как работают.
...
S>Нет, не больше похож на человека. Это легко опровергается другим путем — я тебе уже давал ссылку на код даже. S>Код приводил на C++, который полностью на 100% закрывал этот вопрос.
Про код на С++ ничего не помню. Но очевидно, что это совсем не релевантно такой теме как — у ящичка настоящие эмоции или нет.
Здравствуйте, Silver_S, Вы писали:
S_S>Они в предыдущих 2 постах, про то что тебе не нравятся МРТ этого ящичка?
Именно про этот ящик.
S_S>Про код на С++ ничего не помню. Но очевидно, что это совсем не релевантно такой теме как — у ящичка настоящие эмоции или нет.
Вот именно — не придаешь значения и заранее считаешь что я ничего путного ответить не могу. А я доказал строго что данный ящик не наслаждается и не страдает.
Давай на карту СБ РФ 1000 руб., тогда найду посты.
Здравствуйте, MaximVK, Вы писали:
MVK>И это уже повернет разговор в продуктивное русло. А сейчас это больше похоже на распутывание клубка лески: здесь потянул — там затянулось.
Пока нет времени оформить в виде кратких статей.
MVK>>Но мы опять придем к усредненному нейрокорреляту эмоции. Но это не дает моста от нейрокоррелята к самому факту переживания. S>>Коррелят — это фундаментальная частица. MVK>Вот какая тут связь? При чем тут фундаментальная частица?
Я думал вы следите. Уже выдвигал единственную из возможных гипотез.
Наслаждение и страдание — это не эмерджентное а фундаментальное свойство некой частицы.
S>>Каждый сможет проверить на себе — вот ключ. Кому интересно — может проверить. После публикации достаточно убедительного объяснения — все меньше желающих будет проверять. S>>Это сам человек должен сказать — он должен находиться в сознании. Вот ключ. MVK>Что человек должен сказать? К чему этот ключ? Что я тут должен додумать?
Не сказать — а прочувствовать для себя лично. При отключении коррелята сознания — полностью как бы исчезнет. При восстановлении — скажет что его не было на эти несколько секунд/минут.
При замене коррелята на искусственный имплант, если он работает правильно — исчезать не будет.
Но там много нюансов, которые нужно учитывать. Как то на самом деле у нас в мозге множество сознаний, но каждое из них свято верит что оно одно.
Здравствуйте, Shmj, Вы писали:
S_S>>Про код на С++ ничего не помню. Но очевидно, что это совсем не релевантно такой теме как — у ящичка настоящие эмоции или нет.
S>Вот именно — не придаешь значения и заранее считаешь что я ничего путного ответить не могу. А я доказал строго что данный ящик не наслаждается и не страдает. S>Давай на карту СБ РФ 1000 руб., тогда найду посты.
Так я заранее не верю, что она может здесь что-то доказать.
Понятно, что программа принципиально не отличается от Console.WriteLine("ящики не умеют страдать").
Либо ты придумал произвольную аксиому про страдания, с которой почти никто не согласится, и через нее доказываешь.
Я формально допускаю, что этот ящик имеет настоящие эмоции. Но мне это не нравится. Поэтому пользуюсь неопределенностью — никто не знает, что такое субъективные страдания (и скорее всего никогда не узнает) — и выбираю более комфортную для себя версию, что ящикам не положено страдать.
Здравствуйте, Silver_S, Вы писали:
S_S>Понятно, что программа принципиально не отличается от Console.WriteLine("ящики не умеют страдать").
Нет, такого же уровня как ящик:
1. https://www.onlinegdb.com/M7drQ6nqL
2. Упрощенная https://www.onlinegdb.com/sYCwNVfbF
3. https://onecompiler.com/cpp/44gpzgfq3
S_S>Либо ты придумал произвольную аксиому про страдания, с которой почти никто не согласится, и через нее доказываешь.
S_S>Я формально допускаю, что этот ящик имеет настоящие эмоции. Но мне это не нравится. Поэтому пользуюсь неопределенностью — никто не знает, что такое субъективные страдания (и скорее всего никогда не узнает) — и выбираю более комфортную для себя версию, что ящикам не положено страдать.
1000 рублей и найду те ответы. А так будете внимательнее. Или ждите пока у меня будет время написать в виде статьи, может лет 5 нужно.
Здравствуйте, Shmj, Вы писали:
S_S>>Я формально допускаю, что этот ящик имеет настоящие эмоции. Но мне это не нравится. Поэтому пользуюсь неопределенностью — никто не знает, что такое субъективные страдания (и скорее всего никогда не узнает) — и выбираю более комфортную для себя версию, что ящикам не положено страдать.
S>1000 рублей и найду те ответы. А так будете внимательнее. Или ждите пока у меня будет время написать в виде статьи, может лет 5 нужно.
А ты не понял, что я на этот вопрос совсем другим способом получаю ответ? И С++ программы вообще не при чем и даже наука не при чем. Наука занимается, например, предсказаниями и их проверкой. А здесь нечего предсказывать и проверять.
Здравствуйте, Silver_S, Вы писали:
S>>1000 рублей и найду те ответы. А так будете внимательнее. Или ждите пока у меня будет время написать в виде статьи, может лет 5 нужно.
S_S>А ты не понял, что я на этот вопрос совсем другим способом получаю ответ? И С++ программы вообще не при чем и даже наука не при чем. Наука занимается, например, предсказаниями и их проверкой. А здесь нечего предсказывать и проверять.
Есть что предсказывать и есть что проверять — это вопрос науки. Со своими сложностями, не простой — но так легких вопросов почти не осталось.
Здравствуйте, Shmj, Вы писали:
S>Есть что предсказывать и есть что проверять — это вопрос науки. Со своими сложностями, не простой — но так легких вопросов почти не осталось.
Только не знаешь что, но надеешься, что рано или поздно найдешь, что проверять.