Сообщение Re[11]: так будет ли ИИ иметь сознание? от 20.02.2026 19:53
Изменено 20.02.2026 19:53 vdimas
Re[11]: так будет ли ИИ иметь сознание?
Здравствуйте, Shmj, Вы писали:
V>>вот и у ИИ такая схема будет означать некий личный интерес.
V>>Но это ведь шаг в еще большую непредсказуемость и неподконтрольность.
S>А что сделает его личным?
Очевидно же — это можо сделать через автоматизированную обратную связь, т.е. сделав ИИ проактивным.
Пока что технически ИИ организован как пассивный, что связано с особенностями его реализации — это всё-таки языковые модели, т.е. глубина "итеративного размышления ИИ" не может быть больше некоей максимальной длины входного датасета в пересчёте на токены.
Т.е., даже организовав ему обратную связь, много не накопаешь, даже если эту обратную связь будет анализировать еще один такой же ИИ с целью "компрессирования" получаемых знаний, т.е. вычленяя главное и отсеивая второстепенное (или недостаточно важное) по мере развития рассуждений, дабы уменьшать длину сохраняемой цепочки.
В любом случае, современная максимальная длина входных данных не позволит на этой длине кристаллизоваться неким цифровым подпространствам, которые могли бы влиять на встроенные оценочные ф-ии сетки — как ты всё время говорил про наслаждения и страдания, а я еще упомянул врождённые рефлексы...
Кароч, это всё замечательно обыгрывается через оценочные ф-ии, которые прямо сейчас широко применяются — имено так ИИ учат лгать, через встроенные оценочные ф-ии. ))
S>Вот сейчас пользователь задаёт промпт. Это интерес пользователя. Так же можно задать промпт предварительный — это делает разработчик. Для пользователя предпромпты не редактируемы и он может их рассматривать как личный интерес нейросети, ведь это где-то внутри.
Это "сейчас", пока ИИ представляют из себя чистую математическую ф-ию без состояния, а состояние хранится в промпте.
Что с этим делать — тоже понятно, уже вовсю разрабатываются сети, которые можно "частично дообучать".
Но в идеале-то нужна сетка, масштаб дообучения окторой должен быть на порядк больше масштаба заложенных в неё данных, типа как в современных ведущих языковых моделях — это лишь "ребенок", которому еще бы учиться и учиться. ))
Пусть это звучит наивно, но без возможности самообучаться ИИ не сможет раскрыть тайны Вселенной (дословно цитирую желание Маска, чтобы ИИ раскрыл тайны Вселенной).
S>К примеру, нейросети от OpenAi не хочет риссовать Трампа голым, едущим на свинье — значит ее личный интерес перевешивает? Или это не личный интерес?
Это влияние встроенных оценочных ф-ий.
Наверно, тебе стоило бы просто было поинтересоваться "как это организовано" — можно спрашивать у китайского ИИ, он рассуждает на технические вопросы по тематике ИИ прямо, в отличие от американских моделей. ))
S>Внутренние установки — это и есть как бы личный интерес. Дело не в этом.
S>Наслаждения и страдания так и нет.
Смоделировать это относительно несложно, не в этом затык. ))
Пока что необходимо понимание того, что языковые модели — это тупик.
Языковые модели должны быть лишь вспомогательными моделями настоящего ассоциативного ИИ, служить лишь преобразователями входа-выхода.
И да, попытка моделирования "эмоций" у ботов была впервые показана в игре в Half Life еще в 90-е. ))
Т.е., у некоторых ботов было желание жить, им было больно, а некоторые боты понимали, что им сейчас конец и меняли перед смертью своё поведение.
V>>вот и у ИИ такая схема будет означать некий личный интерес.
V>>Но это ведь шаг в еще большую непредсказуемость и неподконтрольность.
S>А что сделает его личным?
Очевидно же — это можо сделать через автоматизированную обратную связь, т.е. сделав ИИ проактивным.
Пока что технически ИИ организован как пассивный, что связано с особенностями его реализации — это всё-таки языковые модели, т.е. глубина "итеративного размышления ИИ" не может быть больше некоей максимальной длины входного датасета в пересчёте на токены.
Т.е., даже организовав ему обратную связь, много не накопаешь, даже если эту обратную связь будет анализировать еще один такой же ИИ с целью "компрессирования" получаемых знаний, т.е. вычленяя главное и отсеивая второстепенное (или недостаточно важное) по мере развития рассуждений, дабы уменьшать длину сохраняемой цепочки.
В любом случае, современная максимальная длина входных данных не позволит на этой длине кристаллизоваться неким цифровым подпространствам, которые могли бы влиять на встроенные оценочные ф-ии сетки — как ты всё время говорил про наслаждения и страдания, а я еще упомянул врождённые рефлексы...
Кароч, это всё замечательно обыгрывается через оценочные ф-ии, которые прямо сейчас широко применяются — имено так ИИ учат лгать, через встроенные оценочные ф-ии. ))
S>Вот сейчас пользователь задаёт промпт. Это интерес пользователя. Так же можно задать промпт предварительный — это делает разработчик. Для пользователя предпромпты не редактируемы и он может их рассматривать как личный интерес нейросети, ведь это где-то внутри.
Это "сейчас", пока ИИ представляют из себя чистую математическую ф-ию без состояния, а состояние хранится в промпте.
Что с этим делать — тоже понятно, уже вовсю разрабатываются сети, которые можно "частично дообучать".
Но в идеале-то нужна сетка, масштаб дообучения окторой должен быть на порядк больше масштаба заложенных в неё данных, типа как в современных ведущих языковых моделях — это лишь "ребенок", которому еще бы учиться и учиться. ))
Пусть это звучит наивно, но без возможности самообучаться ИИ не сможет раскрыть тайны Вселенной (дословно цитирую желание Маска, чтобы ИИ раскрыл тайны Вселенной).
S>К примеру, нейросети от OpenAi не хочет риссовать Трампа голым, едущим на свинье — значит ее личный интерес перевешивает? Или это не личный интерес?
Это влияние встроенных оценочных ф-ий.
Наверно, тебе стоило бы просто было поинтересоваться "как это организовано" — можно спрашивать у китайского ИИ, он рассуждает на технические вопросы по тематике ИИ прямо, в отличие от американских моделей. ))
S>Внутренние установки — это и есть как бы личный интерес. Дело не в этом.
S>Наслаждения и страдания так и нет.
Смоделировать это относительно несложно, не в этом затык. ))
Пока что необходимо понимание того, что языковые модели — это тупик.
Языковые модели должны быть лишь вспомогательными моделями настоящего ассоциативного ИИ, служить лишь преобразователями входа-выхода.
И да, попытка моделирования "эмоций" у ботов была впервые показана в игре в Half Life еще в 90-е. ))
Т.е., у некоторых ботов было желание жить, им было больно, а некоторые боты понимали, что им сейчас конец и меняли перед смертью своё поведение.
Re[11]: так будет ли ИИ иметь сознание?
Здравствуйте, Shmj, Вы писали:
V>>вот и у ИИ такая схема будет означать некий личный интерес.
V>>Но это ведь шаг в еще большую непредсказуемость и неподконтрольность.
S>А что сделает его личным?
Очевидно же — это можно сделать через автоматизированную обратную связь, т.е. сделав ИИ проактивным.
Пока что технически ИИ организован как пассивный, что связано с особенностями его реализации — это всё-таки языковые модели, т.е. глубина "итеративного размышления ИИ" не может быть больше некоей максимальной длины входного датасета в пересчёте на токены.
Т.е., даже организовав ему обратную связь, много не накопаешь, даже если эту обратную связь будет анализировать еще один такой же ИИ с целью "компрессирования" получаемых знаний, т.е. вычленяя главное и отсеивая второстепенное (или недостаточно важное) по мере развития рассуждений, дабы уменьшать длину сохраняемой цепочки.
В любом случае, современная максимальная длина входных данных не позволит на этой длине кристаллизоваться неким цифровым подпространствам, которые могли бы влиять на встроенные оценочные ф-ии сетки — как ты всё время говорил про наслаждения и страдания, а я еще упомянул врождённые рефлексы...
Кароч, это всё замечательно обыгрывается через оценочные ф-ии, которые прямо сейчас широко применяются — имено так ИИ учат лгать, через встроенные оценочные ф-ии. ))
S>Вот сейчас пользователь задаёт промпт. Это интерес пользователя. Так же можно задать промпт предварительный — это делает разработчик. Для пользователя предпромпты не редактируемы и он может их рассматривать как личный интерес нейросети, ведь это где-то внутри.
Это "сейчас", пока ИИ представляют из себя чистую математическую ф-ию без состояния, а состояние хранится в промпте.
Что с этим делать — тоже понятно, уже вовсю разрабатываются сети, которые можно "частично дообучать".
Но в идеале-то нужна сетка, масштаб дообучения окторой должен быть на порядк больше масштаба заложенных в неё данных, типа как в современных ведущих языковых моделях — это лишь "ребенок", которому еще бы учиться и учиться. ))
Пусть это звучит наивно, но без возможности самообучаться ИИ не сможет раскрыть тайны Вселенной (дословно цитирую желание Маска, чтобы ИИ раскрыл тайны Вселенной).
S>К примеру, нейросети от OpenAi не хочет риссовать Трампа голым, едущим на свинье — значит ее личный интерес перевешивает? Или это не личный интерес?
Это влияние встроенных оценочных ф-ий.
Наверно, тебе стоило бы просто было поинтересоваться "как это организовано" — можно спрашивать у китайского ИИ, он рассуждает на технические вопросы по тематике ИИ прямо, в отличие от американских моделей. ))
S>Внутренние установки — это и есть как бы личный интерес. Дело не в этом.
S>Наслаждения и страдания так и нет.
Смоделировать это относительно несложно, не в этом затык. ))
Пока что необходимо понимание того, что языковые модели — это тупик.
Языковые модели должны быть лишь вспомогательными моделями настоящего ассоциативного ИИ, служить лишь преобразователями входа-выхода.
И да, попытка моделирования "эмоций" у ботов была впервые показана в игре в Half Life еще в 90-е. ))
Т.е., у некоторых ботов было желание жить, им было больно, а некоторые боты понимали, что им сейчас конец и меняли перед смертью своё поведение.
V>>вот и у ИИ такая схема будет означать некий личный интерес.
V>>Но это ведь шаг в еще большую непредсказуемость и неподконтрольность.
S>А что сделает его личным?
Очевидно же — это можно сделать через автоматизированную обратную связь, т.е. сделав ИИ проактивным.
Пока что технически ИИ организован как пассивный, что связано с особенностями его реализации — это всё-таки языковые модели, т.е. глубина "итеративного размышления ИИ" не может быть больше некоей максимальной длины входного датасета в пересчёте на токены.
Т.е., даже организовав ему обратную связь, много не накопаешь, даже если эту обратную связь будет анализировать еще один такой же ИИ с целью "компрессирования" получаемых знаний, т.е. вычленяя главное и отсеивая второстепенное (или недостаточно важное) по мере развития рассуждений, дабы уменьшать длину сохраняемой цепочки.
В любом случае, современная максимальная длина входных данных не позволит на этой длине кристаллизоваться неким цифровым подпространствам, которые могли бы влиять на встроенные оценочные ф-ии сетки — как ты всё время говорил про наслаждения и страдания, а я еще упомянул врождённые рефлексы...
Кароч, это всё замечательно обыгрывается через оценочные ф-ии, которые прямо сейчас широко применяются — имено так ИИ учат лгать, через встроенные оценочные ф-ии. ))
S>Вот сейчас пользователь задаёт промпт. Это интерес пользователя. Так же можно задать промпт предварительный — это делает разработчик. Для пользователя предпромпты не редактируемы и он может их рассматривать как личный интерес нейросети, ведь это где-то внутри.
Это "сейчас", пока ИИ представляют из себя чистую математическую ф-ию без состояния, а состояние хранится в промпте.
Что с этим делать — тоже понятно, уже вовсю разрабатываются сети, которые можно "частично дообучать".
Но в идеале-то нужна сетка, масштаб дообучения окторой должен быть на порядк больше масштаба заложенных в неё данных, типа как в современных ведущих языковых моделях — это лишь "ребенок", которому еще бы учиться и учиться. ))
Пусть это звучит наивно, но без возможности самообучаться ИИ не сможет раскрыть тайны Вселенной (дословно цитирую желание Маска, чтобы ИИ раскрыл тайны Вселенной).
S>К примеру, нейросети от OpenAi не хочет риссовать Трампа голым, едущим на свинье — значит ее личный интерес перевешивает? Или это не личный интерес?
Это влияние встроенных оценочных ф-ий.
Наверно, тебе стоило бы просто было поинтересоваться "как это организовано" — можно спрашивать у китайского ИИ, он рассуждает на технические вопросы по тематике ИИ прямо, в отличие от американских моделей. ))
S>Внутренние установки — это и есть как бы личный интерес. Дело не в этом.
S>Наслаждения и страдания так и нет.
Смоделировать это относительно несложно, не в этом затык. ))
Пока что необходимо понимание того, что языковые модели — это тупик.
Языковые модели должны быть лишь вспомогательными моделями настоящего ассоциативного ИИ, служить лишь преобразователями входа-выхода.
И да, попытка моделирования "эмоций" у ботов была впервые показана в игре в Half Life еще в 90-е. ))
Т.е., у некоторых ботов было желание жить, им было больно, а некоторые боты понимали, что им сейчас конец и меняли перед смертью своё поведение.