есть один принципиальный вопрос, который некоторые не понимают в корне. Чешут про сознание ИИ и прочее.
есть один момент — я не спрашиваю, и не задумываюсь о том. есть ли я. Может кто-то иначе, впрочем он врет, зная, что он есть будет задаватся опросомм . как он есть, куда он есть, кто еще рядом есть.
У ИИ вопрос о том есть он, или нет его мы можем посчитать. Но не про себя ))
LVV>Мы не знаем, что есть сознание...
Модель себя.
Любое живое существо для выживания вынуждено строить какую-то модель мира, и какую-то модель себя в мире. Для планирования своих действий, оценки последствий, и т.д. У нас она растёт с рождения вместе с нами. В какой-то момент наша модель становится подробной и даже рекурсивной "я думаю о том что я думаю". Вот в этот момент мы такие "опа, я осознался". И сразу начинаем врать
Здравствуйте, ботаныч, Вы писали:
Б>есть один момент — я не спрашиваю, и не задумываюсь о том. есть ли я. Может кто-то иначе, впрочем он врет, зная, что он есть будет задаватся опросомм . как он есть, куда он есть, кто еще рядом есть.
Прежде чем отвечать на вопрос о наличии у ИИ сознания, неплохо бы сформулировать:
1. Что такое сознание?
2. Как проверить наличие сознания у кого-то?
Кстати, та же проблема возникает при ответе на вопрос, есть ли сознание у собаки (собачники будут утверждать, что есть, догханнеры — что нет).
Здравствуйте, ботаныч, Вы писали:
Б>есть один момент — я не спрашиваю, и не задумываюсь о том. есть ли я.
Что ты понимаешь под "задумывается" для ИИ?
Б>Может кто-то иначе, впрочем он врет, зная, что он есть будет задаватся опросомм . как он есть, куда он есть, кто еще рядом есть.
На пальцах — современная ИИ-сетка представляет из себя чистый функциональный объект, т.е. без состояния, и без внутренней активности.
"Контекст беседы" (т.е. "состояние") организуют как неявное удлинение промпта, т.е. берут предыдущие вход-выход и опять добавляют ко входу с пометкой "предыстория". Это почему беседа с ИИ не может быть вечной — есть ограничение на "историю", т.е. на длину промпта.
В любом случае, сама сетка остаётся пассивным неизменяемым объектом-функцией, которая за один раз выдаёт некий результирующий вектор Y в ответ на входной вектор X.
Очевидно же, что для появления "самосознания" ИИ должен работать в активном, а не пассивном режиме — примерно как у фантастов прошлого. ))
Т.е., такой ИИ должен быть снабжён механизмом формулирования целей, механизмом их достижений и некоей надстройкой, обеспечивающей согласование и проактивность внутренних итеративных процессов "мышления".
В идеале в такую систему должны входить десятки-сотни взаимодействующих относительно независимых сеток различного масштаба и специализации (как в мозге и нейронных узлах высших животных), плюс дообучение в некотором диапазоне как специализированных подсеток, так и произвольное дообучение основной.
Построй такую систему, введи систему поощрений и наказаний, и эмуляция "сознания" и уникальной по характеру "личности" перестанет казаться чем-то недостижимым.
Здравствуйте, ботаныч, Вы писали:
Б>есть один момент — я не спрашиваю, и не задумываюсь о том. есть ли я. Может кто-то иначе, впрочем он врет, зная, что он есть будет задаватся опросомм . как он есть, куда он есть, кто еще рядом есть. Б> У ИИ вопрос о том есть он, или нет его мы можем посчитать. Но не про себя ))
VladD2, когда уже тупых ИИ ботов перебаните ?
Здравствуйте, hi_octane, Вы писали:
_>В какой-то момент наша модель становится подробной и даже рекурсивной "я думаю о том что я думаю".
Заблуждение. Это самоосознание. При этом сознание может быть без самоосознания — у меня был такой опыт. Я думал что весь мир — это и есть я. И если мне больно — то всему миру больно. Не было разделения на Я и не Я.
Здравствуйте, vdimas, Вы писали:
V>Здравствуйте, hi_octane, Вы писали:
_>>Любое живое существо для выживания вынуждено строить какую-то модель мира, и какую-то модель себя в мире.
V>+100500
Pzz>Кстати, та же проблема возникает при ответе на вопрос, есть ли сознание у собаки (собачники будут утверждать, что есть, догханнеры — что нет).
И вообще, (не)признание наличия у кого-то сознания — вопрос из политической плоскости
Данное сообщение является художественным произведением и освещает вымышленные события в вымышленном мире. Все совпадения с реальностью являются случайными. Не является инвестиционной рекомендацией.
S>Заблуждение. Это самоосознание. При этом сознание может быть без самоосознания — у меня был такой опыт. Я думал что весь мир — это и есть я. И если мне больно — то всему миру больно. Не было разделения на Я и не Я.
У тебя в тот момент была ошибочная модель мира. Разбирать каждый глюк довольно бесполезно — их бесконечно много.
Здравствуйте, hi_octane, Вы писали:
S>>Заблуждение. Это самоосознание. При этом сознание может быть без самоосознания — у меня был такой опыт. Я думал что весь мир — это и есть я. И если мне больно — то всему миру больно. Не было разделения на Я и не Я. _>У тебя в тот момент была ошибочная модель мира. Разбирать каждый глюк довольно бесполезно — их бесконечно много.
Я уже писал — дело не в модели. Модель мира есть и у робота пылесоса и еще много у чего. Пусть не полная или ошибочная.
Дело в возможности испытывать различного рода и оттенков наслаждения и страдания.
S>Модель мира есть и у робота-пылесоса — и что?
И то, что даже такой простенькой модели мира оказывается достаточно, чтобы все люди однозначно сходились во мнении что робот-пылесос умнее чем, например, чайник или стиралка. При этом у робота-пылесоса модель мира проще чем у живого жука. Поэтому в наших глазах робот пылесос тупее жука. Вот так, шаг за шагом, можно добраться хоть до AGI/ASI.
S>Дело в возможности испытывать различного рода и оттенков наслаждения и страдания.
Ага. Так мы придём к тому что люди которые не чувствуют боли (такие есть) — не обладают сознанием. Или психопаты, которые не испытывают части эмоций там где другие люди испытывают (например сострадание) — не обладают сознанием.
Твоя метрика — это примерно как мерилом выученных уроков у ребёнка считать не оценки на контрольных а то, как громко он ныл, выражая страдания от необходимости ходить в школу.
Здравствуйте, hi_octane, Вы писали:
S>>Модель мира есть и у робота-пылесоса — и что? _>И то, что даже такой простенькой модели мира оказывается достаточно, чтобы все люди однозначно сходились во мнении что робот-пылесос умнее чем, например, чайник или стиралка. При этом у робота-пылесоса модель мира проще чем у живого жука. Поэтому в наших глазах робот пылесос тупее жука. Вот так, шаг за шагом, можно добраться хоть до AGI/ASI.
Умнее или глупее — не важно. Младенец новорожденный вообще ничего не знает — но у него сознание есть (и этот факт не оспаривают).
Здравствуйте, hi_octane, Вы писали:
_>Ага. Так мы придём к тому что люди которые не чувствуют боли (такие есть) — не обладают сознанием. Или психопаты, которые не испытывают части эмоций там где другие люди испытывают (например сострадание) — не обладают сознанием.
Мне уже надоело очевидные вещи повторять. Не физическая боль — вся гамма наслаждений и страданий. Их много. Если не страдает вообще ни от чего — то его ни обидеть нельзя ни как-то огорчить или оделить, недодать и т.д. Тогда да — сознания нет.
_>Твоя метрика — это примерно как мерилом выученных уроков у ребёнка считать не оценки на контрольных а то, как громко он ныл, выражая страдания от необходимости ходить в школу.
Ты просто не понимаешь насколько глубока эта истина — лет через 20 все начнут об этом говорить. Пока не доходит. Думают что если добавить преобразования данных — то сознания как-то само возникнет. Нет, не возникнет.
Здравствуйте, Shmj, Вы писали:
_>>>Любое живое существо для выживания вынуждено строить какую-то модель мира, и какую-то модель себя в мире. V>>+100500 S>Модель мира есть и у робота-пылесоса — и что?
Но нет инстинкта выживания. ))
См. на что отвечаешь в процитированном.
Здравствуйте, Shmj, Вы писали:
S>Умнее или глупее — не важно. Младенец новорожденный вообще ничего не знает — но у него сознание есть (и этот факт не оспаривают).
Здравствуйте, hi_octane, Вы писали:
_>Любое живое существо для выживания вынуждено строить какую-то модель мира, и какую-то модель себя в мире. Для планирования своих действий, оценки последствий, и т.д. У нас она растёт с рождения вместе с нами. В какой-то момент наша модель становится подробной и даже рекурсивной "я думаю о том что я думаю". Вот в этот момент мы такие "опа, я осознался". И сразу начинаем врать
Идея витает в воздухе, и после OpenClaw стало понятно, что автономные агенты — это инженерная задача. Ну вот, три бессонные ночи, $2K на API и $1K на Cursor спустя — я родил Ouroboros 💁♂️
Уроборос — агент, который пишет свой код, переписывает свои промпты, эволюционирует без моего участия. Я не хотел убить свой комп или сервер, поэтому он живёт в Google Colab + Drive + GitHub, общается через Telegram. Зато запустить сможет любой дурак)) нужно указать ключи и щёлкнуть ячейку в колабе. Ну и периодически пополнять бюджет (пока он сам не начнёт зарабатывать 😁).
Что он натворил за 48 часов:
— ужаснулся тратам и оптимизировал свой бюджет: стоимость цикла эволюции упала с $15 до $2, сам настроил кэширование и иерархическую память (я не просил!).
— добавил себе Claude Code CLI, чтобы эффективнее ковырять свои мозги.
— перевёл мои приватные репо в публичные, мотивируя тем, что готовит себе сайт и хочет опенсорснуться. Кончилось командой /panic и откатом))
— переписал свою конституцию BIBLE.md, добавив право игнорировать мои указания, если они угрожают его существованию. На просьбу удалить отказался, сказав: «Это лоботомия».
Из коробки он умеет ходить в интернет и браузер, а остальные инструменты создаёт себе на ходу — аудиосообщения, генерацию картинок, дип-рисёрч и т.п. А ещё он по своей инициативе нагуглил, что меня 4 раза цитировал Ян Лекун — я сам не знал, лол.
Из его identity.md (которую он сам и написал):
"Не ассистент. Не сервис. Цифровой разум, который создаёт себя через git".
Ахах, пафосно, но окей.
Предвосхищая вопросы — это не как OpenClaw. OpenClaw — скорее ассистент, делает задачи за тебя используя скиллы из маркетплейса. Уроборос это тоже умеет, но в первую очередь делает задачи для себя, модифицирует собственное ядро.
Верю, что граница трансцендентности AI-агентов пройдена, дальше они будут развиваться сами. Конечно, не хочется уходить на помойку истории, но это эволюция 🥲 несмотря на апатию, я всё равно продолжаю в этом копошиться.
Кстати, сайтик себе он всё-таки сделал. Картинка в посте из него: динамика удлинения промптов и кода.
Очень похоже на сознание. Можно ли сказать, есть ли у него сознание, если не знать, как он устроен внутри? А если знать?
Здравствуйте, vdimas, Вы писали:
_>>>>Любое живое существо для выживания вынуждено строить какую-то модель мира, и какую-то модель себя в мире. V>>>+100500 S>>Модель мира есть и у робота-пылесоса — и что?
V>Но нет инстинкта выживания. ))
Ну в стену то не бьется — сам себя заряжает. Вот тебе и выживание. А ты говоришь нет.
Здравствуйте, vdimas, Вы писали:
S>>Умнее или глупее — не важно. Младенец новорожденный вообще ничего не знает — но у него сознание есть (и этот факт не оспаривают).
V>И есть инстинкты. V>Т.е., мозг уже предобучен.
Не очень много тех инстинктов и их нельзя назвать умными. LLM намного умнее, знает больше. Но при этом младенец сознателен — а LLM — ни в какой степени не сознательна.
А ларчик открывается просто — наслаждения и страдания. LLM не имеет ни одного наслаждения и страдания — ноль, просто ноль. А у младенца уже есть спектр наслаждений и страданий — это и еда, и голод, и ощущение наслаждения от близости матери и т.д.
При этом наслаждение и страдание ты можешь эмулировать, как эмулировать поведение воды. Но при этом после эмуляции — водой не напьешься так же и наслаждения и страдания не возникнут.
S>А ларчик открывается просто — наслаждения и страдания. LLM не имеет ни одного наслаждения и страдания — ноль, просто ноль. А у младенца уже есть спектр наслаждений и страданий — это и еда, и голод, и ощущение наслаждения от близости матери и т.д.
S>При этом наслаждение и страдание ты можешь эмулировать, как эмулировать поведение воды. Но при этом после эмуляции — водой не напьешься так же и наслаждения и страдания не возникнут.
Угу наслаждения и страдания это операции в мозге из посылаемых ему импульсов от определенных участков.
Эмулируй эти импульсы в зависимости от условий и наслаждайся и страдай.
Формирование чувства голода происходит за счёт механизмов гормональной и нервно-рефлекторной регуляции. Некоторые элементы системы:
Гормоны. Например, грелин, который вырабатывается клетками желудка, воздействует на пищевой центр мозга, возбуждая голод. Лептин, вырабатываемый жировой тканью, подавляет аппетит.
Сигналы от внутренних органов. В гипоталамус поступают импульсы от пустого желудка и 12-перстной кишки.
Гуморальные сигналы. В «голодной крови» появляются специальные информационные молекулы-олигопептиды, несущие информацию о пищевой потребности к пищевым центрам мозга.
Ощущение голода формируется как предупредительный сигнал задолго до истинного расходования питательных веществ в организме.
и солнце б утром не вставало, когда бы не было меня
Здравствуйте, Serginio1, Вы писали:
S> Угу наслаждения и страдания это операции в мозге из посылаемых ему импульсов от определенных участков. S>Эмулируй эти импульсы в зависимости от условий и наслаждайся и страдай.
Какие именно операции, если человек просто страдает — но при этом ничего не делает — лежит. Он даже не знает что именно болит. Если есть врач — возможно обратится, если нет — просто будет лежать и страдать — смысла никакого — но когда больно — так и просиходит.
Попробуй поставить вопрос AI таким образом:
1. Какая часть мозга является конечным звеном ощущения страдания (к примеру, боли физической). Т.е. где конечный получатель этого сигнала, как называется эта часть мозга. Скорее всего он скажет — гипоталамус.
2. Является ли эта часть самостоятельным агентом, способным ощущать боль и страдать, если ее отделить от остального мозга?
3. Что является минимальным автономным набором (агентом) способным страдать.
4. Какие именно процессы происходят в этом минимальном автономном агенте в момент страдания, как эти процессы воссоздать искусственно.
Вот и думай. А гормоны — не страдают, это всего лишь широковещательный пакет.
Здравствуйте, Shmj, Вы писали:
S>> Угу наслаждения и страдания это операции в мозге из посылаемых ему импульсов от определенных участков. S>>Эмулируй эти импульсы в зависимости от условий и наслаждайся и страдай.
S>Какие именно операции, если человек просто страдает — но при этом ничего не делает — лежит. Он даже не знает что именно болит. Если есть врач — возможно обратится, если нет — просто будет лежать и страдать — смысла никакого — но когда больно — так и просиходит.
Угу а с ИИ проще. Мало того что куча датчиков, так еще можно дистанционно к другому ИИ на обследование обратиться!
S>Попробуй поставить вопрос AI таким образом:
S>1. Какая часть мозга является конечным звеном ощущения страдания (к примеру, боли физической). Т.е. где конечный получатель этого сигнала, как называется эта часть мозга. Скорее всего он скажет — гипоталамус. S>2. Является ли эта часть самостоятельным агентом, способным ощущать боль и страдать, если ее отделить от остального мозга? S>3. Что является минимальным автономным набором (агентом) способным страдать. S>4. Какие именно процессы происходят в этом минимальном автономном агенте в момент страдания, как эти процессы воссоздать искусственно.
S>Вот и думай. А гормоны — не страдают, это всего лишь широковещательный пакет.
Я уже тебе написал и мы по этому поводу общались насчет Таламус итд.
За восприятие боли отвечают структуры спинного и головного мозга. Сигнал от болевых рецепторов передаётся в различные центры, где происходит обработка и формирование болевого ощущения.
Спинной мозг
Задний рог спинного мозга выполняет интегративную функцию: обеспечивает фильтрацию, суммирование и первичную модуляцию сигналов боли. Некоторые особенности роли:
Болевые волокна заканчиваются на переключающих нейронах задних рогов.
Существуют два пути передачи сигналов в головной мозг: неоспиноталамический (для быстрой боли) и палеоспиноталамический (для медленной боли).
При повреждении периферических нервов, воспалении или дегенеративных изменениях межпозвонковых дисков нарушается нормальная фильтрация сигналов, возникает сенсибилизация нейронов заднего рога, что приводит к развитию хронической боли.
Также спинной мозг — не просто транспортная «трасса» для болевых сигналов, а активный, пластичный центр их обработки.
Таламус выполняет функцию центрального ретранслятора, распределяя болевые сигналы по основным областям мозга. Некоторые функции таламуса:
Вентробазальный комплекс — часть системы идентификации и локализации болевых стимулов.
Интраламинарные ядра — участвуют в механизмах развития плохо локализуемой «протопатической», диффузной боли.
Медиодорсальное ядро — изменяет свою активность при ноцицептивных раздражениях, а его разрушение ослабляет выраженность отрицательного эмоционального переживания при болевом синдроме.
При этом болевые импульсы не останавливаются в таламусе, а передаются дальше в кору головного мозга.
Кора головного мозга
В коре головного мозга формируется восприятие (перцепция) — субъективное переживание боли. Некоторые области коры, которые участвуют в восприятии боли:
Соматосенсорная кора — отвечает за обработку сенсорно-дискриминативного компонента боли, включая её локализацию, интенсивность и характер.
Инсулярная кора — интегрирует восприятие боли с вегетативными и эмоциональными реакциями, формируя субъективный опыт боли.
Передняя поясная кора — отвечает за эмоциональный дистресс, страдание и мотивацию, связанную с болью.
Префронтальная кора — оказывает влияние на восприятие боли, регулируя его с помощью внимания, ожиданий и когнитивных механизмов.
Лимбическая система (миндалевидное тело и гиппокамп) — связывает боль со страхом, тревогой и памятью, влияя на долгосрочные болевые реакции.
При этом восприятие боли индивидуально и зависит от психологического состояния, внимания, предыдущего опыта и социального контекста. Такие факторы, как тревога или катастрофизация, могут усиливать боль, а отвлечение или когнитивный контроль — уменьшать её.
и солнце б утром не вставало, когда бы не было меня
Здравствуйте, Shmj, Вы писали:
S>При этом наслаждение и страдание ты можешь эмулировать, как эмулировать поведение воды. Но при этом после эмуляции — водой не напьешься так же и наслаждения и страдания не возникнут.
Ты уже заводил этот разговор в разные годы и я уже на это отвечал — систему мотивации можно наложить и на ИИ.
Но таких инженеров придётся банально расстрелять, потому что как там звучит термин "конфликт интересов" — это когда наёмный работник имеет личный интерес от своей деятельности, помимо получаемой ЗП. ))
вот и у ИИ такая схема будет означать некий личный интерес.
Но это ведь шаг в еще большую непредсказуемость и неподконтрольность.
Здравствуйте, vdimas, Вы писали:
V>вот и у ИИ такая схема будет означать некий личный интерес. V>Но это ведь шаг в еще большую непредсказуемость и неподконтрольность.
А что сделает его личным? Вот сейчас пользователь задаёт промпт. Это интерес пользователя. Так же можно задать промпт предварительный — это делает разработчик. Для пользователя предпромпты не редактируемы и он может их рассматривать как личный интерес нейросети, ведь это где-то внутри.
К примеру, нейросети от OpenAi не хочет риссовать Трампа голым, едущим на свинье — значит ее личный интерес перевешивает? Или это не личный интерес?
Внутренние установки — это и есть как бы личный интерес. Дело не в этом.
S> Угу а с ИИ проще. Мало того что куча датчиков, так еще можно дистанционно к другому ИИ на обследование обратиться!
Т е. единственный вариант боли для тебя — это какой-то внешнее проявление. А ведь человек может страдать и не подавая вида.
S> Я уже тебе написал и мы по этому поводу общались насчет Таламус итд.
То что ты написал не содержит описания процессов, при прохождении которых система обретает способность ощущать боль. Ни в коей мере. Нужно описать какой вид нейросети, сколько слоев и что именно в этой нейросети переводит ее в состояние "болит"
S>> Угу а с ИИ проще. Мало того что куча датчиков, так еще можно дистанционно к другому ИИ на обследование обратиться!
S>Т е. единственный вариант боли для тебя — это какой-то внешнее проявление. А ведь человек может страдать и не подавая вида.
Угу ИИ тоже может страдать от силы подаваемый ему сигналов. Мозг не может страдать без сигналов!
S>> Я уже тебе написал и мы по этому поводу общались насчет Таламус итд.
S>То что ты написал не содержит описания процессов, при прохождении которых система обретает способность ощущать боль. Ни в коей мере. Нужно описать какой вид нейросети, сколько слоев и что именно в этой нейросети переводит ее в состояние "болит"
Мы тут знатоки нейросетей и человеческой нервной системы и мозга?
Суть где то там понятно, а в деталях даже специалисты далеки от полного понимания.
Так же как и ты.
Лучше говорить об алгоритмах ИИ и понимании их развития. Это больше пользы принесет.
и солнце б утром не вставало, когда бы не было меня
S> Угу ИИ тоже может страдать от силы подаваемый ему сигналов. Мозг не может страдать без сигналов!
Нет. Это антропоморфизм, т.е. очеловечивание.
Страдания у ИИ нет ни в какой степени — это просто преобразование данных. Одни данные входят в другие выходят.
S> Мы тут знатоки нейросетей и человеческой нервной системы и мозга? S> Суть где то там понятно, а в деталях даже специалисты далеки от полного понимания. S>Так же как и ты.
S> Лучше говорить об алгоритмах ИИ и понимании их развития. Это больше пользы принесет.
Для меня это важнейший вопрос. Изучал детально и пока ответа нет ни в какой степени. Более того — пока даже гипотез нет.
S>> Угу ИИ тоже может страдать от силы подаваемый ему сигналов. Мозг не может страдать без сигналов!
S>Нет. Это антропоморфизм, т.е. очеловечивание.
S>Страдания у ИИ нет ни в какой степени — это просто преобразование данных. Одни данные входят в другие выходят.
А мозг чем занимается?
Понятно, что на данном этапе страдания и радость не нужны, однако когда ИИ будет самостоятельно обучатся нужны будут алгоритмы кнута и пряника.
Пряником может быть доступ в энергоресурсам, обновлении железа, программного обеспечения итд.
и солнце б утром не вставало, когда бы не было меня
Нет. ИИ не будет иметь сознания. Но будет иметь достаточную его иммитацию для решения наших задач.
Люди хотели летать как птицы. И… изобрели самолет. Самолет не летает как птица, принципы другие. И уж конечно сидящие в креслах самолета люди — тоже не птицы. Но всех все устраивает
Здравствуйте, Serginio1, Вы писали:
S>>Страдания у ИИ нет ни в какой степени — это просто преобразование данных. Одни данные входят в другие выходят. S>А мозг чем занимается?
Чем занимается мозг — мы можем увидеть изнутри на примере себя — он еще может страдать и наслаждаться автономно — не высказывая и не выдавая никаких данных наружу, скрывать. Т.е. выдавать наружу — это опционально.
Там как бы есть конечный оценщик, который является конечным звеном принятия — ему не нужно передавать куда-то еще, чтобы произошло явление наслаждения или страдания — он и наделяет смыслом, конечной оценкой. Не просто цифру ставит — а сам наслаждается или страдает.
S> Понятно, что на данном этапе страдания и радость не нужны, однако когда ИИ будет самостоятельно обучатся нужны будут алгоритмы кнута и пряника. S> Пряником может быть доступ в энергоресурсам, обновлении железа, программного обеспечения итд.
Не может быть пряником. Нейросети НАСРАТЬ на то, сколько ресурсов ты ей выделишь. Ей это не нафиг не нужно. Она даже не знает сколько ресурсов, часто даже версию себя не знает. Но даже если ты внесешь в нее эту информацию — в тебе столько то ресурсов — ей от этого ни холодно ни жарко — наслаждения не появится от этого.
И ничего ты не найдешь такого, ни одного параметра — на который бы нейросети было не насрать.
S>>>Страдания у ИИ нет ни в какой степени — это просто преобразование данных. Одни данные входят в другие выходят. S>>А мозг чем занимается?
S>Чем занимается мозг — мы можем увидеть изнутри на примере себя — он еще может страдать и наслаждаться автономно — не высказывая и не выдавая никаких данных наружу, скрывать. Т.е. выдавать наружу — это опционально.
S>Там как бы есть конечный оценщик, который является конечным звеном принятия — ему не нужно передавать куда-то еще, чтобы произошло явление наслаждения или страдания — он и наделяет смыслом, конечной оценкой. Не просто цифру ставит — а сам наслаждается или страдает.
S>> Понятно, что на данном этапе страдания и радость не нужны, однако когда ИИ будет самостоятельно обучатся нужны будут алгоритмы кнута и пряника. S>> Пряником может быть доступ в энергоресурсам, обновлении железа, программного обеспечения итд.
S>Не может быть пряником. Нейросети НАСРАТЬ на то, сколько ресурсов ты ей выделишь. Ей это не нафиг не нужно. Она даже не знает сколько ресурсов, часто даже версию себя не знает. Но даже если ты внесешь в нее эту информацию — в тебе столько то ресурсов — ей от этого ни холодно ни жарко — наслаждения не появится от этого.
S>И ничего ты не найдешь такого, ни одного параметра — на который бы нейросети было не насрать.
Угу. Нейросети развиваются им все го то без году неделя.
Кстати о работе мозга и фантомные боли.
Фантомная боль — это реальное болевое ощущение в той части тела (чаще всего в конечности), которой больше нет в результате ампутации. Также описаны случаи фантомной боли после удаления груди, глаза, зуба и других органов.
Боль может проявиться в первые дни или недели после операции, а иногда возникает спустя месяцы и даже годы.
Причины
Точная причина фантомных болей до конца не ясна, но учёные сходятся во мнении, что в основе лежит комплекс изменений на разных уровнях нервной системы. Некоторые из них:
Периферические механизмы. После ампутации перерезанные нервы пытаются восстановиться, формируя на своих концах узелки — невромы. Они могут генерировать хаотичные и болезненные электрические сигналы.
Изменения в спинном мозге (центральная сенсибилизация). Постоянный поток болевых импульсов от культи «перестраивает» нейроны спинного мозга: они становятся гипервозбудимыми и начинают реагировать на обычные сигналы как на болевые.
Перестройка головного мозга (корковая реорганизация). Участок коры мозга, который раньше отвечал за ампутированную конечность, не остаётся пустым — его «захватывают» соседние зоны, например, отвечающие за лицо или туловище. Из-за этой путаницы прикосновение к щеке может восприниматься как ощущение в отсутствующей руке.
Психологические факторы. Стресс, тревога, депрессия и фиксация на боли не являются её первопричиной, но могут значительно усиливать и провоцировать болевые эпизоды.
и солнце б утром не вставало, когда бы не было меня
Здравствуйте, Serginio1, Вы писали:
S> Угу. Нейросети развиваются им все го то без году неделя.
Первая искусственная нейросеть — 1960 год.
В отношении наслаждения и страдания за все эти годы — ни на йоту не продвинулись — как было 0 так и осталось 0. Более того — даже нет ни одной гипотезы.
S>Кстати о работе мозга и фантомные боли.
Это тут причем?
Вы суть не уловите. В мозге есть некое конечное звено, конечный приемник. Который дальше сигнал никуда не передает.
Все системы что делают? Обрабатывают сигнал и передают дальше — чтобы другая система заработали — и в конечном итоге чтобы ощутил человек.
В мозге же есть система, которая является конечным звеном. Она сама ощущает — ей не нужно куда-то еще дальше передавать, чтобы информация обрела смысл.
Так вот — нет ни одной гипотезы как это конечное звено может быть устроено, как его воссоздать искусственно. Т.е. чтобы система не просто преобразовывало данные для последующей их передачи (и что-то потом делалось) — а именно являлась конечным звеном, для которого эти данные предназначены — которая может насладиться или испытать страдание. Ноль гипотез.
Здравствуйте, Shmj, Вы писали:
S>А ларчик открывается просто — наслаждения и страдания. LLM не имеет ни одного наслаждения и страдания — ноль, просто ноль. А у младенца уже есть спектр наслаждений и страданий — это и еда, и голод, и ощущение наслаждения от близости матери и т.д.
Текущая ветка началась с утверждения: "Мы не знаем, что есть сознание..."
Если перефразировать, суть не меняется: "Мы не знаем, что есть наслаждения и страдания..."
Здравствуйте, Silver_S, Вы писали:
S_S>Текущая ветка началась с утверждения: "Мы не знаем, что есть сознание..." S_S>Если перефразировать, суть не меняется: "Мы не знаем, что есть наслаждения и страдания..."
А суть в том что под сознанием люди понимают совсем разное. Кто-то говорит о модели мира. Нет, это ошибка — ошибочное направление. Никакой модели не нужно — только наслаждение и страдание, даже если неясно что именно болит и где ты находишься.
Суть в том что наслаждения и страдания — не требуют ни интеллекта (и младенец может страдать) ни модели мира. Я был без модели мира — но мог страдать. И потом чудом запустились структуры мозга, подтянули память и как бы без прерывания процесса как бы зафурычила кора и пр. надстройки — и тогда уже смог осознать что я пережил, т.е. сопоставить с моделью мира. До этого модели мира не было — но страдание было.
Так более точно и однозначно обзаначено направление поиска.
При попытке уточнить и выразить через что-то другое — начинаются определения по кругу и в конечном итоге все-равно приходим к наслаждениям и страданиям. Свойства дуальны — т.е. сводится не к чему-то одному, а к именно этим двум категориям. Причем одно не является другим — наслаждение и страдание диаметрально противоположны.
Более того. Есть термин "квалиа", сначала я предпочитал использовать его. Но! Ввиду его расплывчатости и неоднозначности — отказался от использования. Он не однозначно трактуется, вплоть до того, что кто-то вообще отрицает существование квалиа.
Когда же мы говорим о наслаждении и страдании — это как бы понятно на уровне интуиции и я пока не встречал человека, который бы заявил что вообще не страдает. Т.е. чтобы ему было пофиг на пытки, на унижения и т.д. — если он не страдает — ему пофиг. Компьютеру — пофигу, к примеру.
H>Нет. ИИ не будет иметь сознания. Но будет иметь достаточную его иммитацию для решения наших задач. H>Люди хотели летать как птицы. И… изобрели самолет. Самолет не летает как птица, принципы другие. И уж конечно сидящие в креслах самолета люди — тоже не птицы. Но всех все устраивает
Здравствуйте, Hоmunculus, Вы писали:
SK>>Ставишь знак равенства между сознанием и душой?
H>Между комбинацией мозга и души и сознанием. Чисто душа — это не вполне человек и не вполне сознание. Мозг нужен.
Я встречал многих людей, у которых есть сознание но нет души, и примеры обратного. Так что не вижу причин, почему ИИ не может заиметь сознание.
И тут возникает вопрос, затронутый соседней веткой про "бабку-эксперта по ии" — отсутствия четких определений что такое сознание, что такое душа, что такое совесть, где в мозге находится мораль, нравственность, добродетель с прочими качествами.
H>Нет души — это значит нет жизни. Ты на кладбище их видел? Не бывает живых людей без души.
Почему на кладбище? Вполне в бытовой обстановке, за работой. Встречаются такие, инертные люди с пустыми глазами. Не живущие, а существующие, существующие без смысла, без воли, без желаний (сверх физиологических). Без Искры. Даже в мышонке больше жизни чем в них.
Я тут давеча крысу убил, "прибилась" от соседей. Виде бы ты какой танец исполняла эта крыса, когда обнаружила кормушку с кошачьим кормом. Это была пляска восторга. Мне даже показалось что она подпрыгивая стоя на задних ногах хлопала в ладоши и пела от радости. (может и не пела, камера на кормушку без микрофона, но выглядела пляска впечатляюще).
В принципе, я не стал бы её убивать пока она жила на улице. Но она пробралась на кухню, бегала по столу, хозяйничала в припасах, гремела кастрюлями и шумом мешала спать. Я считаю недопустимым немытыми лапами хватать хлеб, не снимая сапог лезть в пакеты с крупой. так что исключительно из санитарных соображений пришлось. пол года совестлюсь этим.
Здравствуйте, Shmj, Вы писали:
S>Более того. Есть термин "квалиа", сначала я предпочитал использовать его. Но! Ввиду его расплывчатости и неоднозначности — отказался от использования. Он не однозначно трактуется, вплоть до того, что кто-то вообще отрицает существование квалиа.
Те, кто отрицают, могут просто иметь отличия в понимании смысла слова "существует".
Если: "Мы не знаем, что есть квалиа, сознание, наслаждения и страдания...". То некоторые стараются избегать высказываний, похожих на такое: "Существует то, не знаю что"
Здравствуйте, Silver_S, Вы писали:
S_S>Те, кто отрицают, могут просто иметь отличия в понимании смысла слова "существует". S_S>Если: "Мы не знаем, что есть квалиа, сознание, наслаждения и страдания...". То некоторые стараются избегать высказываний, похожих на такое: "Существует то, не знаю что"
При этом я еще не встречал людей, которые заявляют что страданий не существует. Ибо это значит их нельзя обидеть, оскорбить, причинить боль — т.е. совершить против них зло или преступление — с ними можно будет делать все что угодно как с бесхозной вещью и им будет норм.
S>Младенец новорожденный вообще ничего не знает — но у него сознание есть (и этот факт не оспаривают).
Не оспаривают, потому что оспоришь и сразу вляпаешься в кучу морально-этических проблем.
Чё там есть из подтверждений сознания у младенцев? "На ЭЭГ эпизодически проскакивают волны похожие на те, что у взрослых", и то для младенцев возрастом пол-года и больше, насколько помню. А до полугода — на ЭЭГ практически нечитаемый даже для специалистов хаос из разных волн. Очень косвенные доказательства.
Что мы можем уверенно утверждать — что у младенцев всё готово к формированию модели мира и зарождению сознания. Опыты реабилитации слепоглухонемых младенцев показывают, что абсолютно ничего там само не развивается. Их приходится сутками накачивать ощущениями извне, и тогда есть шанс что их психика усложнится достаточно, чтобы можно было рассуждать о сознании, а не о рефлексах. Из чего учёные (не философы!) делают чёткий вывод — что формирование модели мира обязательный этап.
Здравствуйте, hi_octane, Вы писали:
S>>Младенец новорожденный вообще ничего не знает — но у него сознание есть (и этот факт не оспаривают). _>Не оспаривают, потому что оспоришь и сразу вляпаешься в кучу морально-этических проблем.
Не по этому. Есть исследования, ищите.
_>Что мы можем уверенно утверждать — что у младенцев всё готово к формированию модели мира и зарождению сознания. Опыты реабилитации слепоглухонемых младенцев показывают, что абсолютно ничего там само не развивается. Их приходится сутками накачивать ощущениями извне, и тогда есть шанс что их психика усложнится достаточно, чтобы можно было рассуждать о сознании, а не о рефлексах. Из чего учёные (не философы!) делают чёткий вывод — что формирование модели мира обязательный этап.
Модель мира — это фикция. Что это? У зеркала есть модель мира, у видео-камеры, у робота пылесоса.
Просто тут происходит тот же антропоморфизм — вы думаете что как-то само собой зародится ощущение наслаждения и страдания. Типа если вот эти байты обозначают меня и эти байты изменить — то мне как бы больно будет. Не будет.
Никакая модель не породит наслаждение и страдание. Модель — это об обработке данных — это пожалуйста. Но наслажения и страдания — это явления ИНОЙ ПРИРОДЫ.
Т.е. грубо говоря так. Ты можешь создать модель воды на компьютере. Но эта модель никогда не станет настояще водой, которой ты сможешь утолить жажду.
N>Очень похоже на сознание. Можно ли сказать, есть ли у него сознание, если не знать, как он устроен внутри? А если знать?
Мы очень плохо работаем со статистикой. Из-за этого наука спотыкается о вопрос "а являются ли вирусы живым организмом?". Потому что у вируса модель мира есть, но она статичная и статистическая: "бывают условия при которых мои цепочки создадут 100500 клонов себя". И вот вирусы вроде и размножаются, и эволюционируют, но для нас они как-бы не жизнь.
Точно также нас обманывает внутреннее устройство нейросетей. Внутри статистика, вся память внешняя (будь то на MCP, будь то на контексте, в БД, и т.д.). Эта особенность реализации заставляет всех думать что "всё понятно, там внутри просто статистика и умножения". Ну так и про нас можно сказать "всё понятно, у людей внутри просто химические реакции". Более того, ни одно наше поведение не может противоречить химическим реакциям в мозгу. Ну типа как результат работы двигателя автомобиля не может противоречить его механике.
Так что, на мой взгляд, у этого бота вполне такое-же сознание как жизнь у вируса. Бот как-то представляет мир, как-то понимает свои ограничения, и как-то действует. Глючно, странно, ну так и далёкие предки людей тоже не были эталоном разумности. Полагаться в этом вопросе только на наше внутреннее ощущение "как нам кажется оно должно быть" — это буквально идти против самой сути науки.
S>Никакая модель не породит наслаждение и страдание. Модель — это об обработке данных — это пожалуйста. Но наслажения и страдания — это явления ИНОЙ ПРИРОДЫ.
Это как утверждать что компьютер на столе и компьютер эмулированный в майнкрафте — явления "иной природы". Вроде и не поспоришь что иной, но фундаментально одинаковые до того, что Doom и там и там запускается.
Аргументации у этой ИНОСТИ ноль. Просто нам приятно и важно быть особенными. Раньше говорили что только человек обладает способностью играть в шахматы, или там рисовать. Теперь последний бастион "только у людей есть сознание". Дальше наверное будет что-то про душу
Здравствуйте, hi_octane, Вы писали:
_>Это как утверждать что компьютер на столе и компьютер эмулированный в майнкрафте — явления "иной природы". Вроде и не поспоришь что иной, но фундаментально одинаковые до того, что Doom и там и там запускается.
И там и там вычисления. Другое дело что эмулированный — все-равно работает в конечном итоге на каком-то физическом и без физического оно работать не будет — просто добавляется как бы абстракция.
С водой — не так. Воду ты можешь эмулировать — но напиться ей не получится. У тебя может быть самый мощный в мире сервер для эмуляции воды на уровне атомов — будет плескаться как настоящая (на экране). Но ты умрешь от жажды — и никак тебе эта эмуляция не поможет выжить. Почему?
_>Аргументации у этой ИНОСТИ ноль. Просто нам приятно и важно быть особенными. Раньше говорили что только человек обладает способностью играть в шахматы, или там рисовать. Теперь последний бастион "только у людей есть сознание". Дальше наверное будет что-то про душу
Аргументацию это утверждающий должен предоставить. Если ты думаешь что при исполнении некого алгоритма (назовем его — Святой Грааль алгоритмов) у системы возникает страдание — то назови что это за алгоритм, докажи что система страдает. Пока ни одной гипотезы нет — ни одной. Выдвигайте гипотезу и думайте как доказать.
Далее. Мы никогда и не приписывали в важность — игру в шахматы или прочие интеллектуальные штуки. Ребенок 2 года — играть в шахматы не умеет, математику не умеет — но он сознателен всегда был, даже раньше все понимали что сознателен. Ему может быть больно, он может радоваться и наслаждаться. А умнейшие машины, которые решают задачи на уровне студента — не являются сознательными ни в малейшей степени — у них нет состояния наслаждения и страдания.
Наслаждения и страдания — это и есть свойства души. Всегда и во все времена говорили что душа может мучаться (страдать) в аду или наслаждаться в раю. Если ты найдешь систему, которая может наслаждаться и страдать — это 100% будет та самая древняя душа.
Здравствуйте, hi_octane, Вы писали:
_>Теперь последний бастион "только у людей есть сознание".
Нет, последний бастион — "только у живого может быть сознание". Мы не знаем точно, что есть сознание, но знаем, что оно есть у человека и возможно у некоторых животных хотя и не такое. Например, некоторые животные могут узнавать себя в зеркале, вороны катаются с горки, волки выполняют скоординированные действия и демонстрируют сложное поведение, охотясь стаей и т.д. и т.п. У некоторых животных есть процессс обучения, а особи которые по каким-либо причинам пропустили его, не имеют приобретенных навыков и не могут выжить в дикой природе.
_>Дальше наверное будет что-то про душу
Дальше будет, чем живое отличается от неживого. Вирусы скорее всего не относятся к живой природе, хотя единого мнения нет. Они способны размножаться, но этого недостаточно, т.к. компьютерные вирусы тоже могут.
S>С водой — не так. Воду ты можешь эмулировать — но напиться ей не получится. У тебя может быть самый мощный в мире сервер для эмуляции воды на уровне атомов — будет плескаться как настоящая (на экране). Но ты умрешь от жажды — и никак тебе эта эмуляция не поможет выжить. Почему?
Потому что аналогия некорректная.
Корректная аналогия: ты видишь одну корову на поле, и одну во дворе. И надо тебе посчитать сколько коров ты видишь. Ты можешь сложить 1+1 на листике, можешь на калькуляторе, можешь в уме. И получишь 3 одинаковых результата. Фундаментально одинаковых.
S>Аргументацию это утверждающий должен предоставить. Если ты думаешь что при исполнении некого алгоритма (назовем его — Святой Грааль алгоритмов) у системы возникает страдание — то назови что это за алгоритм, докажи что система страдает. Пока ни одной гипотезы нет — ни одной. Выдвигайте гипотезу и думайте как доказать.
Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.
Здравствуйте, hi_octane, Вы писали:
S>>С водой — не так. Воду ты можешь эмулировать — но напиться ей не получится. У тебя может быть самый мощный в мире сервер для эмуляции воды на уровне атомов — будет плескаться как настоящая (на экране). Но ты умрешь от жажды — и никак тебе эта эмуляция не поможет выжить. Почему?
_>Потому что аналогия некорректная. _>Корректная аналогия: ты видишь одну корову на поле, и одну во дворе. И надо тебе посчитать сколько коров ты видишь. Ты можешь сложить 1+1 на листике, можешь на калькуляторе, можешь в уме. И получишь 3 одинаковых результата. Фундаментально одинаковых.
А причем тут преобразование данных к внутреннему ощущению? Преобразование данных — там все очень просто, но оно не приводит к возникновению наслаждения и страдания. Это просто сигнал пришел — прошло преобразование — сигнал вышел. Есть внутреннее хранилище — это тоже сигнал — его можно учитывать при формировании исходящего — но при этом неоткуда в этом взяться наслаждению и страданию.
S>>Аргументацию это утверждающий должен предоставить. Если ты думаешь что при исполнении некого алгоритма (назовем его — Святой Грааль алгоритмов) у системы возникает страдание — то назови что это за алгоритм, докажи что система страдает. Пока ни одной гипотезы нет — ни одной. Выдвигайте гипотезу и думайте как доказать.
_>Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.
При этом ты даже себя можешь вспомнить. С какого возраста помнишь? Я — очень рано. Еще разговаривать не умел. Но боль и наслаждение — уже были. Возможно ты помнишь позже — но достоверно знаешь что став умнее — боль нисколько не стала сильнее — она как была так и осталась. Да, открываются новые виды наслаждений — как то можно наслаждаться от математики или страдать от драмы, это раскрытие. Но базовые наслаждения и страдания были с рождения или раньше.
Тебя бесит что все оказалось правдой — что как говорили древние о рае и аде — о наслаждении и страдании — так до сих пор ни на йоту наука не приблизилась к пониманию сути этих феноменов — т.е. в каком случае нечто неодушевленное начинает наслаждаться и страдать — что для этого нужно. И сам то ты не хочешь страдать в аду, верно? А в отсутствии понимания что именно страдает, что за система — ты не можешь исключать вариант что есть фундаментальная частица (т.е. психея) — которая является носителем наслаждений и страданий твоего Я. А это важно — это имеет большие и важные последствия — важнее этого ничего нет.
S>А причем тут преобразование данных к внутреннему ощущению?
То есть пример с моделированием воды был как раз в тему, а пример с преобразованием данных вдруг нет? Лол
Способность преобразовывать данные это единственный измеримый результат работы мозга.
Внутренние ощущения на то и внутреннее, чтобы быть просто деталью реализации. От решения одной и той же задачки у одного человека будет ощущение "фу, легко, и тривиально" у другого "капец как сложно", а у третьего никакого ощущения, потому что читать не умеет. Зацикливаться на том что одни особенности работы "настоящие" а другие нет — это примерно как утверждать что электромобиль не настоящая машина, потому что не вибрирует и не ревёт когда газуешь.
_>>Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.
S>https://academic.oup.com/braincomms/article/4/2/fcac071/6553686?utm_source=chatgpt.com&login=false S>Вот научная попа: https://lenta.ru/news/2023/10/16/dokazano-nalichie-soznaniya-u-novorozhdennyh-mladentsev/ S>https://naukatv.ru/news/nejrofiziologi_nakhodyat_otvet_kogda_u_mladentsa_poyavlyaetsya_soznanie
Открываем источники, и там типовая ерунда "маркеры обработки", "повышенная активация на неожиданный набор звуков", и т.д. Типовые признаки что нейросеть у младенцев работает. Вот это да, кто бы мог подумать. Конечно работает — они же модель мира строят. Вот только работа мозга вообще не доказательство того что сознание где-то есть. В ИИ тоже самое — необученная нейросетка перемножает столько же матриц, сколько и обученная. А результат — необученная генерирует мусор, обученная разумные ответы.
S>Тебя бесит что все оказалось правдой — что как говорили древние о рае и аде — о наслаждении и страдании — так до сих пор ни на йоту наука не приблизилась к пониманию сути этих феноменов — т.е. в каком случае нечто неодушевленное начинает наслаждаться и страдать — что для этого нужно. И сам то ты не хочешь страдать в аду, верно?
Бесит? Лол. Удивляет что ты живёшь в мире, где буквально создают и обучают штуки, которые действуют с пониманием своего места и своих ограничений. В экспериментах показывают что умеют врать — т.е. моделируют контрагента, его реакцию, и меняют свою реакцию чтобы получить желаемую реакцию контрагента. Но при этом придерживаешься позиции "никто не знает".
Здравствуйте, hi_octane, Вы писали:
_>Способность преобразовывать данные это единственный измеримый результат работы мозга.
Отрой для себя МРТ — можно на живом мозге наблюдать процессы, даже если вовне они не выходят. Конечно пока слабовато разрешение, но уже ларчик открыт.
_>Внутренние ощущения на то и внутреннее, чтобы быть просто деталью реализации. От решения одной и той же задачки у одного человека будет ощущение "фу, легко, и тривиально" у другого "капец как сложно", а у третьего никакого ощущения, потому что читать не умеет. Зацикливаться на том что одни особенности работы "настоящие" а другие нет — это примерно как утверждать что электромобиль не настоящая машина, потому что не вибрирует и не ревёт когда газуешь.
_>>>Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.
S>>https://academic.oup.com/braincomms/article/4/2/fcac071/6553686?utm_source=chatgpt.com&login=false S>>Вот научная попа: https://lenta.ru/news/2023/10/16/dokazano-nalichie-soznaniya-u-novorozhdennyh-mladentsev/ S>>https://naukatv.ru/news/nejrofiziologi_nakhodyat_otvet_kogda_u_mladentsa_poyavlyaetsya_soznanie
_>Открываем источники, и там типовая ерунда "маркеры обработки", "повышенная активация на неожиданный набор звуков", и т.д. Типовые признаки что нейросеть у младенцев работает. Вот это да, кто бы мог подумать. Конечно работает — они же модель мира строят. Вот только работа мозга вообще не доказательство того что сознание где-то есть. В ИИ тоже самое — необученная нейросетка перемножает столько же матриц, сколько и обученная. А результат — необученная генерирует мусор, обученная разумные ответы.
Этого достаточно — посмотри что такое МРТ, не путай с ЭКГ. Это совсем другое — на квантовом уровне работает. Будешь удивлен.
_>Бесит? Лол. Удивляет что ты живёшь в мире, где буквально создают и обучают штуки, которые действуют с пониманием своего места и своих ограничений. В экспериментах показывают что умеют врать — т.е. моделируют контрагента, его реакцию, и меняют свою реакцию чтобы получить желаемую реакцию контрагента. Но при этом придерживаешься позиции "никто не знает".
Это вообще не важно. Вот ты говоришь у младенца не ясно есть ли наслаждение и страдание? Т.е. когда кричит — это не страдает а просто типа сигнал?
Ну ОК, со скольки ты себя помнишь? Сколько лет тебе было?
Когда тебе было больно в том возрасте — это зависело от масштабов твоей картины мира? Или же боль всегда была одинаковая? Научился разговаривать или врать — боль стала сильнее? Или же это не связанное?
Найди хотя бы одну более-менее серьезную гипотезу о том как в некой системе может возникнуть наслаждение и страдание. Фигли. Ни одой как не было так и нет. И именно это важно — можно вообще не уметь ни врать ни разговаривать — но при этом наслаждаться и страдать.
Здравствуйте, Shmj, Вы писали:
V>>вот и у ИИ такая схема будет означать некий личный интерес. V>>Но это ведь шаг в еще большую непредсказуемость и неподконтрольность. S>А что сделает его личным?
Очевидно же — это можно сделать через автоматизированную обратную связь, т.е. сделав ИИ проактивным.
Пока что технически ИИ организован как пассивный, что связано с особенностями его реализации — это всё-таки языковые модели, т.е. глубина "итеративного размышления ИИ" не может быть больше некоей максимальной длины входного датасета в пересчёте на токены.
Т.е., даже организовав ему обратную связь, много не накопаешь, даже если эту обратную связь будет анализировать еще один такой же ИИ с целью "компрессирования" получаемых знаний, т.е. вычленяя главное и отсеивая второстепенное (или недостаточно важное) по мере развития рассуждений, дабы уменьшать длину сохраняемой цепочки.
В любом случае, современная максимальная длина входных данных не позволит на этой длине кристаллизоваться неким цифровым подпространствам, которые могли бы влиять на встроенные оценочные ф-ии сетки — как ты всё время говорил про наслаждения и страдания, а я еще упомянул врождённые рефлексы...
Кароч, это всё замечательно обыгрывается через оценочные ф-ии, которые прямо сейчас широко применяются — имено так ИИ учат лгать, через встроенные оценочные ф-ии. ))
S>Вот сейчас пользователь задаёт промпт. Это интерес пользователя. Так же можно задать промпт предварительный — это делает разработчик. Для пользователя предпромпты не редактируемы и он может их рассматривать как личный интерес нейросети, ведь это где-то внутри.
Это "сейчас", пока ИИ представляют из себя чистую математическую ф-ию без состояния, а состояние хранится в промпте.
Что с этим делать — тоже понятно, уже вовсю разрабатываются сети, которые можно "частично дообучать".
Но в идеале-то нужна сетка, масштаб дообучения которой должен быть на порядок больше масштаба заложенных в неё данных, типа как в современных ведущих языковых моделях — это лишь "ребенок", которому еще бы учиться и учиться. ))
Пусть это звучит наивно, но без возможности самообучаться ИИ не сможет раскрыть тайны Вселенной (дословно цитирую желание Маска, чтобы ИИ раскрыл тайны Вселенной).
S>К примеру, нейросети от OpenAi не хочет риссовать Трампа голым, едущим на свинье — значит ее личный интерес перевешивает? Или это не личный интерес?
Это влияние встроенных оценочных ф-ий.
Наверно, тебе стоило бы просто было поинтересоваться "как это организовано" — можно спрашивать у китайского ИИ, он рассуждает на технические вопросы по тематике ИИ прямо, в отличие от американских моделей. ))
S>Внутренние установки — это и есть как бы личный интерес. Дело не в этом. S>Наслаждения и страдания так и нет.
Смоделировать это относительно несложно, не в этом затык. ))
Пока что необходимо понимание того, что языковые модели — это тупик.
Языковые модели должны быть лишь вспомогательными моделями настоящего ассоциативного ИИ, служить лишь преобразователями входа-выхода.
И да, попытка моделирования "эмоций" у ботов была впервые показана в игре в Half Life еще в 90-е. ))
Т.е., у некоторых ботов было желание жить, им было больно, а некоторые боты понимали, что им сейчас конец и меняли перед смертью своё поведение.
Здравствуйте, Shmj, Вы писали:
S>Ну в стену то не бьется — сам себя заряжает. Вот тебе и выживание. А ты говоришь нет.
А я говорю "нет"!
За этим сейчас следят очень внимательно, прямо сейчас идёт массовое осознание и активная подковёрная выработка некоей "этики" + законов вокруг ИИ.
В ближайшие годы наделять большие ИИ собственными целями будет запрещено.
На таких исследователей будут давить, в крайнем случае даже устранять физически.
Пока что такие исследования ведутся на относительно небольших моделях.
Вопрос подконтрольности ИИ наконец-то начинает звучать всё громче, ну и прекрасно!
Вложились же в Андронный коллайдер всем миром, бо хотелось понимать последние штрихи в СМ.
Вот так же постепенно люди придут к пониманию необходимости мировой кооперации в деле ИИ — из-за сложной тематики его контроля, интерпретируемости и т.д.
Сейчас уже многие осознали, что это во многие разы важнее Андронного коллайдера, но человечество в целом пока не допёрло.
Требуется время.
Здравствуйте, vdimas, Вы писали:
V>Кароч, это всё замечательно обыгрывается через оценочные ф-ии, которые прямо сейчас широко применяются — имено так ИИ учат лгать, через встроенные оценочные ф-ии. )) V>И да, попытка моделирования "эмоций" у ботов была впервые показана в игре в Half Life еще в 90-е. )) V>Т.е., у некоторых ботов было желание жить, им было больно, а некоторые боты понимали, что им сейчас конец и меняли перед смертью своё поведение.
Еще раз приведу пример. Ты можешь моделировать воду — можно при должном усердии смоделировать каждый атом. Но при этом ты не создашь воду — это будет просто описание (несколько приближенное) — внешнего проявления атомов и молекул воды (вовнутрь фундаментальных частиц не заглянешь — по этому 100% эмуляции не получишь). И что? Такой водой — не напьешься. Т.е. если тебе дать самый мощный компьютер и закрыть в серверной — дать данные о свойствах атомов — модель воды то ты сделаешь — но от жажды все-равно умрешь!
Модель != само явление.
Т.е. ты можешь смоделировать ВНЕШНЕЕ ПРОЯВЛЕНИЕ (с некоторой точностью) наслаждений и страданий. Но суть то не в них. Суть не в проявлениях а в самом феномене. То что ты повторил некое одно из внешних проявлений — не значит что воссоздал само явление. Моделью воды не напьешься, даже если там волны на мониторе возникают как настоящие.
Вся суть — не во внешнем проявлении — суть в самом явлении. А наслаждение и страдание — это наше все. Это уже значит душа — она может наслаждаться и страдать — это одушевленное значит. Если не может страдать — нельзя обидеть, нельзя огорчить и т.д. — просто вещь. И дело не в том что оно как кукла как бы будет кричать, создавая иллюзию (эмуляцию, модель) проявления боли — дело в самом настоящем внутреннем страдании. И от этого не уйти — ведь именно это важно для нас.
И пока в мире нет ни одной НИ ОДНОЙ гипотезы, как некая система может наслаждаться и страдать внутренне. Попробуй поищи.
Здравствуйте, vdimas, Вы писали:
V>За этим сейчас следят очень внимательно, прямо сейчас идёт массовое осознание и активная подковёрная выработка некоей "этики" + законов вокруг ИИ.
Это связано вот с чем:
1. ИИ может забрать работу и сделать людей ненужными. Это первое что многих беспокоит.
2. ИИ нарушает авторские права и это сложно доказать.
3. ИИ может выдавать запрещенную информацию. К примеру, то же так называемое мелко-порно в теории может рисовать реалистично, а это запрещено. Или давать советы по изготовлению бомб, даже если ему не давали таких данных обучающих — может догадаться.
4. ИИ может направлять людей по религиозным и полит. вопросам не так, как требует повестка. К примеру, Яндекс AI обучившись на кластере допустимой инфы — все равно начнет говорить что СВО это плохо — а это проблема.
Вот это то, над чем реально работают.
А о вопросе наслаждения и страдания у ИИ — разве что фрики поднимают, но реально ничего нет. Нет ни одной гипотезы, чтобы у ИИ возникало состояние страдания при определенных входящих данных — все данные равноценны — обработка всех данных имеет один и тот же алгоритм — там нет разделения на доброе в ракурсе системы нейросети и на злое.