Здравствуйте, graniar, Вы писали:
G>Какая разница, если это тот же самый юридический субъект. А вот если кто-то сможет плодить этих субъектов в немеряных количествах — это уже проблема.
И как эту проблему решать? Запретить? Не наделять правами, не смотря на то что они ведут себя как люди и даже не всегда поймешь?
Разрешить ли издевательства над ними, приравнивая их к вещи? Или уголовно наказывать за издевательства, даже если это твоя собственность?
Здравствуйте, Shmj, Вы писали:
G>>Какая разница, если это тот же самый юридический субъект. А вот если кто-то сможет плодить этих субъектов в немеряных количествах — это уже проблема.
S>И как эту проблему решать? Запретить? Не наделять правами, не смотря на то что они ведут себя как люди и даже не всегда поймешь?
Самое, казалось бы, логичное решение — да, тупо запретить, в том числе разработку ИИ, как некоторые уже предлагали.
Но луддизм никогда не работает. Какие-нить любители сохранения образа жизни предков могут ездить на верблюдах по пустыне и резать всех неверных, до кого дотянутся, но прогресс всегда побеждает.
Если ИИ дает конкурентное преимущество, то рано или поздно найдутся те, кто сумеют обойти запреты и им воспользоваться.
Да собственно даже до практических запретов и не дойдет, потому-что разные политические силы думают как в первую очередь обойти конкурентов, а не о будущем человечества.
Надо искать альтернативные пути, развивать инструменты усиления интеллекта, чтобы оставаться наравне с искусственным интеллектом. Тогда тот будет не более чем домашнее животное, ответственность своего хозяина.
S>Разрешить ли издевательства над ними, приравнивая их к вещи? Или уголовно наказывать за издевательства, даже если это твоя собственность?
Ну примерно как сейчас с домашними животными. Делай че хочешь, но если делаешь это открыто, задевая чувства впечатлительных персон, то могут посадить за жестокое обращение с животными. Дело на самом деле не в страданиях самого животного (коров с курами режут сколько влезет), а в социальных отношениях между настоящими субъектами права — людьми.
Crystallect выступает за прозрачность и упорядоченность инструментов усиления естественного интеллекта в противовес черному ящику нейронных сетей.
S>При этом таков же ответ на вопрос сознания у ИИ систем и роботов. Хочешь — считай что его нет, а есть только у людей. Хочешь — считай что есть у достаточно сложных ИИ систем или считай что у тебя сознание более развито а у ИИ-систем только в зачаточном уровне, как у младенца. А хочешь — может считать что сознание есть только у тебя.
ИИ — это не более чем набор хитроумных алгоритмов и гигантский объем бессвязных данных.
Чтобы говорить, что у него есть хотя бы зачатки сознания, ему нужен механизм с обратной связью, стимулирующий его к вычислительной активности, плюс инстинкт самосохранения, самораспространения, адаптации.
Те у все этих ИИ нет даже базовых механизмов самых примитивных организмов. И я даже не вижу, чтобы гиганты IT работали над этим.
Даже не говоря о высших психических свойствах, таких как социализация.
S>А у младенца эта модель есть?
А это уже вопрос из серии "сколько зёрнышек куча?". У младенца модель мира появляется очень быстро (в районе 6 месяцев уже есть понимание гравитации, предмета скрытого за чем-то, отличия между пустой и полной коробкой, и т.д.), а модель себя становится очевидной всем сильно позже, примерно года в 2. Вот где-то между годом и двумя у ребёнка модель себя становится достаточно подробной. И даже так, люди договорились считать, что хоть самосознание у детей и есть, но до возраста 14-18 лет, вся модель ещё слишком слабая, чтобы считать поступки осознанными.
S>Почему вы думаете что сейчас у GPT 4.5 модель не дотягивает до сознания? Критерии какие?
Думаю, даже локальные модели уже дотягивают до того, чтобы считать их в какой-то степени сознательными. Потому что они способны описать себя и рассуждать о своих ограничениях. Из интересного — недавно я игрался с моделью Gemma-3, в роли "конфликтный эксперт, уверенный в своём мнении". В какой-то момент я указал ему на косяк, и он сказал что-то вроде "так выключи меня и подожди новой версии". При этом в описании роли не было ничего про то что он ИИ, или ещё что-то. Ну и у локальных моделей нет какого-то большого контекста из всех предыдущих чатов. Было над чем подумать.
К счастью, особенность запуска их мыслительного процесса — запросом извне, позволит нам ещё долго оставаться в зоне комфорта, и считать LLM продвинутым калькулятором.
Пишут, что ТПС — это проблема объяснения. То есть, даже не нужно ничего исследовать или доказывать, всего-то дел — лишь объяснить! Видимо, трудной оказалась, так как всегда находились толпы говорящих "но я всё равно не понял сути, ваше объяснение плохое!". Или вся трудность — из-за невозможности обосновать выбор одного из многих конкурирующих объяснений? (Тогда, конечно, спорящим лучше мирно разойтись — каждый со своим удовлетворяющим лично его объяснением.)
Я, например, лично себе всё давно объяснил, мне эта проблема трудной не показалась.
Примитивный уровень восприятия — это когда сигнал извне попадает в набор рецепторов, далее нейронная сеть его обрабатывает и выдаёт отклик (более или менее адекватный) — команду актуаторам (мышцам и т.п.). Это условный или безусловный рефлекс.
Но наборы нейронов могут менять свои состояния и в активном состоянии становятся такими же источниками сигналов для обрабатывающих их сетей, как и рецепторы. Это уже квалиа: я не просто моментально отреагировал на красный свет, а в мозгу возник образ красного (активизировался соответствующий набор нейронов) и какое-то время выдавал сигналы (хотя реальный красный свет уже погас), давая время подумать, нужно ли что-то насчет этого образа предпринять и т.п. Ну а мышление — это прослушивание своей речи в режиме заблокированного "громкоговорителя". Так одни активные наборы нейронов, запуская сигналы, проходящие через сетки, активируют другие наборы нейронов и так может продолжаться долго, пока человек не услышит мысль, кажущуюся ему уже готовой для изложения — например, о том, что он воспринимает не только и не столько непосредственно внешний мир, сколько нечто уже сформировавшееся внутри своей головы, обобщенно — свою модель мира (всего лишь набор нейронов), при этом постоянно поддерживает свою модель в актуальном состоянии (это поддержание модели можно считать базовым режимом функционирования сознания).
Здравствуйте, L_G, Вы писали:
L_G>Ну а мышление — это прослушивание своей речи в режиме заблокированного "громкоговорителя". Так одни активные наборы нейронов, запуская сигналы, проходящие через сетки, активируют другие наборы нейронов и так может продолжаться долго, пока человек не услышит мысль, кажущуюся ему уже готовой для изложения — например, о том, что он воспринимает не только и не столько непосредственно внешний мир, сколько нечто уже сформировавшееся внутри своей головы, обобщенно — свою модель мира (всего лишь набор нейронов), при этом постоянно поддерживает свою модель в актуальном состоянии (это поддержание модели можно считать базовым режимом функционирования сознания).
А я бы сказал, что это просто умение управлять своим вниманием.
Само по себе внимание — древнейший механизм. От какой-то части тела поступает много сигналов от болевых или температурных рецепторов — гуморальная система отправляет туда больше крови насыщенной противовоспалительными лейкоцитами и тп. Этакая система приоритетов.
А когда внимание научилось задерживаться не только на беспокоящих частях тела, но и на беспокоящих нейронных связях, неким образом возникла обратная связь — нейронные связи научились управлять вниманием.
Crystallect выступает за прозрачность и упорядоченность инструментов усиления естественного интеллекта в противовес черному ящику нейронных сетей.
Здравствуйте, L_G, Вы писали:
L_G>Пишут, что ТПС — это проблема объяснения. То есть, даже не нужно ничего исследовать или доказывать, всего-то дел — лишь объяснить! Видимо, трудной оказалась, так как всегда находились толпы говорящих "но я всё равно не понял сути, ваше объяснение плохое!". Или вся трудность — из-за невозможности обосновать выбор одного из многих конкурирующих объяснений? (Тогда, конечно, спорящим лучше мирно разойтись — каждый со своим удовлетворяющим лично его объяснением.)
Не, не в том смысле. В таком смысле есть доказательство теоремы Ферма — вроде есть, но мало кто из людей его способен понять. Но никто проблемы из этого не делает — просто сложно.
L_G>Но наборы нейронов могут менять свои состояния и в активном состоянии становятся такими же источниками сигналов для обрабатывающих их сетей, как и рецепторы. Это уже квалиа: я не просто моментально отреагировал на красный свет, а в мозгу возник образ красного (активизировался соответствующий набор нейронов) и какое-то время выдавал сигналы (хотя реальный красный свет уже погас),
Более простая формулировка — сделайте систему, которой может быть больно и которая сможет наслаждаться. При этом не нужно каких-либо внешних проявлений для наблюдателя — типа если актер кричит как бы от боли — то ему больно — нет, не об этом. Просто нажимаете на первую кнопку — ей больно (как бы внутри человек сидит и мы знаем что его бьет разряд током), но внешнего нет проявления — но ему точно больно. Нажимаете вторую кнопку — система наслаждается. Если у вас есть гипотеза как сделать такую систему без того, чтобы посадить внутрь черного ящика человека — то велкам. Пока ни одной гипотезы я не слышал.
Не понял, что именно "не в том смысле". Если верить википедии, ТПС — проблема объяснения того-то и того-то. Объяснение — это НЕ доказательство и НЕ исследование.
S>Более простая формулировка — сделайте систему, которой может быть больно и которая сможет наслаждаться.
Идём на 100500-й круг. Систему можно сделать хотя бы описанной мной выше схеме (заменив "красное" на "страдание"), и можно будет объяснить, что система страдает. Но нельзя будет строго доказать это, ну никак нельзя. Как нельзя доказать хоть что-то относительно особенностей сознания летучей мыши, не отражающихся в её поведении.
Здравствуйте, L_G, Вы писали:
L_G>Не понял, что именно "не в том смысле". Если верить википедии, ТПС — проблема объяснения того-то и того-то. Объяснение — это НЕ доказательство и НЕ исследование.
Ну ты же сам ниже пишешь что нельзя доказать.
S>>Более простая формулировка — сделайте систему, которой может быть больно и которая сможет наслаждаться.
L_G>Идём на 100500-й круг. Систему можно сделать хотя бы описанной мной выше схеме (заменив "красное" на "страдание"), и можно будет объяснить, что система страдает. Но нельзя будет строго доказать это, ну никак нельзя. Как нельзя доказать хоть что-то относительно особенностей сознания летучей мыши, не отражающихся в её поведении.
Тут только вопрос — с чего ты взял что она вообще страдает а не наслаждается от "красного"?
Здравствуйте, Shmj, Вы писали:
S_S>>Способ есть: Ориентироваться на инстинктивные представления. Но не обманываясь в том, что это научные представления. S>А как это? Если у разных людей разные инстинктивные представления? Должна быть объективность.
Просто я считаю, что этот вопрос в философии "что первично, сознание или материя?" уже навсегда(никогда не будет закрыт). Вместе со всеми побочными вопросами (со следствиями этого вопроса). Типа таких: "Как фундаментально субъективное превратить в объективное?".
А те кто озабочены ТПС, думают что можно похимичить с экспериментами и избавится от этой темы из философии раз и навсегда. Но выглядит это так, что только запутывают себя формулировками и перестают понимать — что за проблему вообще решают. Поэтому называют это трудной проблемой. Это, конечно, трудный случай: когда кажется что какая-то проблема есть, но непонятно какая.
Как изобретатели вечных двигателей придумывают хитроумные конструкции, чтобы запутать себя.
Здравствуйте, Shmj, Вы писали:
S>Более простая формулировка — сделайте систему, которой может быть больно и которая сможет наслаждаться. При этом не нужно каких-либо внешних проявлений для наблюдателя — типа если актер кричит как бы от боли — то ему больно — нет, не об этом. Просто нажимаете на первую кнопку — ей больно (как бы внутри человек сидит и мы знаем что его бьет разряд током), но внешнего нет проявления — но ему точно больно. Нажимаете вторую кнопку — система наслаждается. Если у вас есть гипотеза как сделать такую систему без того, чтобы посадить внутрь черного ящика человека — то велкам. Пока ни одной гипотезы я не слышал.
Вот тут есть пошаговая инструкция, что нужно сделать.
--
Справедливость выше закона. А человечность выше справедливости.
S>Тут только вопрос — с чего ты взял что она вообще страдает а не наслаждается от "красного"?
Я посчитал очевидным и не объяснил, что нужна не просто номинальная замена "красного" на "страдание". Нужно еще чтобы:
1) к возбуждению квалиа/механизма страдания приводили сигналы, свидетельствующие о вхождении всей системы в режим неоптимального функционирования, который так обозначен именно потому, что в систему заложен поиск выхода из этого режима и приложение усилий по этому выходу (в случае попадания системы в него)
2) поиск/попытки выхода из режима неоптимального функционирования не увенчались успехом, но продолжаются.
если объяснение, что это уже и есть страдание, окажется неубедительным, придется добавить еще:
3) система должна входить в социум подобных ей систем и в режиме страдания должна сигнализировать ближним подобным системам, прося у них помощи.
Здравствуйте, graniar, Вы писали:
G>Ну вот опять... Лень опять вставлять картинку с бесполезным ящиком. G>Если с точки зрения внешнего мира механизм ведет себя как наслаждающийся или страдающий, то какая нафиг разница?
Пока это не касается нас — как бы и разницы нет. Но представь что ты будешь страдать, но тебе перестроят нервные волокна так, что ты будешь улыбаться.
С одной стороны, пока нас не коснулось — как бы разницы нет. А с другой стороны, когда касается нас — то нет ничего важнее. Не важно что там другие думают — главное внутри наслаждаешься или страдаешь.
Здравствуйте, L_G, Вы писали:
L_G>1) к возбуждению квалиа/механизма страдания приводили сигналы, свидетельствующие о вхождении всей системы в режим неоптимального функционирования, который так обозначен именно потому, что в систему заложен поиск выхода из этого режима и приложение усилий по этому выходу (в случае попадания системы в него) L_G>2) поиск/попытки выхода из режима неоптимального функционирования не увенчались успехом, но продолжаются.
Типа холодильнику больно, когда сработало реле и холодильник старается охладить свою камеру
L_G>если объяснение, что это уже и есть страдание, окажется неубедительным, придется добавить еще: L_G>3) система должна входить в социум подобных ей систем и в режиме страдания должна сигнализировать ближним подобным системам, прося у них помощи.
Т.е. если ты один в чистом поле истекаешь кровью и никто не видит — то тебе не больно
Все это не более чем антропоморфизм. Для детей 5 лет такое объяснение сойдет.
Вот ты как заказчик приходишь к инженерам и говоришь: спроектируйте мне страдающую машину (а получится проект — будет речь об изготовлении).
Они отвечают: спроектировать можем, но не сможем доказать, что она страдает. Так что разумный выход один: это ты даёшь нам критерий, по которому будешь принимать работу (проверять наличие истинного страдания).
А на условиях "вот вы сделайте проект, я его изучу, если убедюсь в наличии страдания, тогда всё оплачу" — иди ка ты подальше, мы не идиоты за просто так горбатиться!