Re[3]: так будет ли ИИ иметь сознание?
От: Hоmunculus  
Дата: 20.02.26 06:40
Оценка:
Здравствуйте, Stanislaw K, Вы писали:

SK>Ставишь знак равенства между сознанием и душой?


Между комбинацией мозга и души и сознанием. Чисто душа — это не вполне человек и не вполне сознание. Мозг нужен.
Re[4]: так будет ли ИИ иметь сознание?
От: Stanislaw K СССР  
Дата: 20.02.26 07:02
Оценка:
Здравствуйте, Hоmunculus, Вы писали:

SK>>Ставишь знак равенства между сознанием и душой?


H>Между комбинацией мозга и души и сознанием. Чисто душа — это не вполне человек и не вполне сознание. Мозг нужен.


Я встречал многих людей, у которых есть сознание но нет души, и примеры обратного. Так что не вижу причин, почему ИИ не может заиметь сознание.

И тут возникает вопрос, затронутый соседней веткой про "бабку-эксперта по ии" — отсутствия четких определений что такое сознание, что такое душа, что такое совесть, где в мозге находится мораль, нравственность, добродетель с прочими качествами.
Все проблемы от жадности и глупости
Re[5]: так будет ли ИИ иметь сознание?
От: Hоmunculus  
Дата: 20.02.26 07:04
Оценка:
Здравствуйте, Stanislaw K, Вы писали:

Нет души — это значит нет жизни. Ты на кладбище их видел? Не бывает живых людей без души.
Re[6]: так будет ли ИИ иметь сознание?
От: Stanislaw K СССР  
Дата: 20.02.26 09:00
Оценка:
Здравствуйте, Hоmunculus, Вы писали:


H>Нет души — это значит нет жизни. Ты на кладбище их видел? Не бывает живых людей без души.


Почему на кладбище? Вполне в бытовой обстановке, за работой. Встречаются такие, инертные люди с пустыми глазами. Не живущие, а существующие, существующие без смысла, без воли, без желаний (сверх физиологических). Без Искры. Даже в мышонке больше жизни чем в них.


Я тут давеча крысу убил, "прибилась" от соседей. Виде бы ты какой танец исполняла эта крыса, когда обнаружила кормушку с кошачьим кормом. Это была пляска восторга. Мне даже показалось что она подпрыгивая стоя на задних ногах хлопала в ладоши и пела от радости. (может и не пела, камера на кормушку без микрофона, но выглядела пляска впечатляюще).
В принципе, я не стал бы её убивать пока она жила на улице. Но она пробралась на кухню, бегала по столу, хозяйничала в припасах, гремела кастрюлями и шумом мешала спать. Я считаю недопустимым немытыми лапами хватать хлеб, не снимая сапог лезть в пакеты с крупой. так что исключительно из санитарных соображений пришлось. пол года совестлюсь этим.
Все проблемы от жадности и глупости
Re[11]: так будет ли ИИ иметь сознание?
От: Silver_S Ниоткуда  
Дата: 20.02.26 10:17
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Более того. Есть термин "квалиа", сначала я предпочитал использовать его. Но! Ввиду его расплывчатости и неоднозначности — отказался от использования. Он не однозначно трактуется, вплоть до того, что кто-то вообще отрицает существование квалиа.


Те, кто отрицают, могут просто иметь отличия в понимании смысла слова "существует".
Если: "Мы не знаем, что есть квалиа, сознание, наслаждения и страдания...". То некоторые стараются избегать высказываний, похожих на такое: "Существует то, не знаю что"
Re[12]: так будет ли ИИ иметь сознание?
От: Shmj Ниоткуда  
Дата: 20.02.26 10:28
Оценка:
Здравствуйте, Silver_S, Вы писали:

S_S>Те, кто отрицают, могут просто иметь отличия в понимании смысла слова "существует".

S_S>Если: "Мы не знаем, что есть квалиа, сознание, наслаждения и страдания...". То некоторые стараются избегать высказываний, похожих на такое: "Существует то, не знаю что"

При этом я еще не встречал людей, которые заявляют что страданий не существует. Ибо это значит их нельзя обидеть, оскорбить, причинить боль — т.е. совершить против них зло или преступление — с ними можно будет делать все что угодно как с бесхозной вещью и им будет норм.
=сначала спроси у GPT=
Re[7]: так будет ли ИИ иметь сознание?
От: hi_octane Беларусь  
Дата: 20.02.26 12:31
Оценка:
S>Младенец новорожденный вообще ничего не знает — но у него сознание есть (и этот факт не оспаривают).
Не оспаривают, потому что оспоришь и сразу вляпаешься в кучу морально-этических проблем.

Чё там есть из подтверждений сознания у младенцев? "На ЭЭГ эпизодически проскакивают волны похожие на те, что у взрослых", и то для младенцев возрастом пол-года и больше, насколько помню. А до полугода — на ЭЭГ практически нечитаемый даже для специалистов хаос из разных волн. Очень косвенные доказательства.

Что мы можем уверенно утверждать — что у младенцев всё готово к формированию модели мира и зарождению сознания. Опыты реабилитации слепоглухонемых младенцев показывают, что абсолютно ничего там само не развивается. Их приходится сутками накачивать ощущениями извне, и тогда есть шанс что их психика усложнится достаточно, чтобы можно было рассуждать о сознании, а не о рефлексах. Из чего учёные (не философы!) делают чёткий вывод — что формирование модели мира обязательный этап.
Re[8]: так будет ли ИИ иметь сознание?
От: Shmj Ниоткуда  
Дата: 20.02.26 12:50
Оценка:
Здравствуйте, hi_octane, Вы писали:

S>>Младенец новорожденный вообще ничего не знает — но у него сознание есть (и этот факт не оспаривают).

_>Не оспаривают, потому что оспоришь и сразу вляпаешься в кучу морально-этических проблем.

Не по этому. Есть исследования, ищите.

_>Что мы можем уверенно утверждать — что у младенцев всё готово к формированию модели мира и зарождению сознания. Опыты реабилитации слепоглухонемых младенцев показывают, что абсолютно ничего там само не развивается. Их приходится сутками накачивать ощущениями извне, и тогда есть шанс что их психика усложнится достаточно, чтобы можно было рассуждать о сознании, а не о рефлексах. Из чего учёные (не философы!) делают чёткий вывод — что формирование модели мира обязательный этап.


Модель мира — это фикция. Что это? У зеркала есть модель мира, у видео-камеры, у робота пылесоса.

Просто тут происходит тот же антропоморфизм — вы думаете что как-то само собой зародится ощущение наслаждения и страдания. Типа если вот эти байты обозначают меня и эти байты изменить — то мне как бы больно будет. Не будет.

Никакая модель не породит наслаждение и страдание. Модель — это об обработке данных — это пожалуйста. Но наслажения и страдания — это явления ИНОЙ ПРИРОДЫ.

Т.е. грубо говоря так. Ты можешь создать модель воды на компьютере. Но эта модель никогда не станет настояще водой, которой ты сможешь утолить жажду.
=сначала спроси у GPT=
Re[4]: так будет ли ИИ иметь сознание?
От: hi_octane Беларусь  
Дата: 20.02.26 13:16
Оценка: 82 (1)
N>Очень похоже на сознание. Можно ли сказать, есть ли у него сознание, если не знать, как он устроен внутри? А если знать?

Мы очень плохо работаем со статистикой. Из-за этого наука спотыкается о вопрос "а являются ли вирусы живым организмом?". Потому что у вируса модель мира есть, но она статичная и статистическая: "бывают условия при которых мои цепочки создадут 100500 клонов себя". И вот вирусы вроде и размножаются, и эволюционируют, но для нас они как-бы не жизнь.

Точно также нас обманывает внутреннее устройство нейросетей. Внутри статистика, вся память внешняя (будь то на MCP, будь то на контексте, в БД, и т.д.). Эта особенность реализации заставляет всех думать что "всё понятно, там внутри просто статистика и умножения". Ну так и про нас можно сказать "всё понятно, у людей внутри просто химические реакции". Более того, ни одно наше поведение не может противоречить химическим реакциям в мозгу. Ну типа как результат работы двигателя автомобиля не может противоречить его механике.

Так что, на мой взгляд, у этого бота вполне такое-же сознание как жизнь у вируса. Бот как-то представляет мир, как-то понимает свои ограничения, и как-то действует. Глючно, странно, ну так и далёкие предки людей тоже не были эталоном разумности. Полагаться в этом вопросе только на наше внутреннее ощущение "как нам кажется оно должно быть" — это буквально идти против самой сути науки.
Re[9]: так будет ли ИИ иметь сознание?
От: hi_octane Беларусь  
Дата: 20.02.26 13:40
Оценка: 82 (1) +1
S>Никакая модель не породит наслаждение и страдание. Модель — это об обработке данных — это пожалуйста. Но наслажения и страдания — это явления ИНОЙ ПРИРОДЫ.

Это как утверждать что компьютер на столе и компьютер эмулированный в майнкрафте — явления "иной природы". Вроде и не поспоришь что иной, но фундаментально одинаковые до того, что Doom и там и там запускается.

Аргументации у этой ИНОСТИ ноль. Просто нам приятно и важно быть особенными. Раньше говорили что только человек обладает способностью играть в шахматы, или там рисовать. Теперь последний бастион "только у людей есть сознание". Дальше наверное будет что-то про душу
Re[10]: так будет ли ИИ иметь сознание?
От: Shmj Ниоткуда  
Дата: 20.02.26 14:04
Оценка:
Здравствуйте, hi_octane, Вы писали:

_>Это как утверждать что компьютер на столе и компьютер эмулированный в майнкрафте — явления "иной природы". Вроде и не поспоришь что иной, но фундаментально одинаковые до того, что Doom и там и там запускается.


И там и там вычисления. Другое дело что эмулированный — все-равно работает в конечном итоге на каком-то физическом и без физического оно работать не будет — просто добавляется как бы абстракция.

С водой — не так. Воду ты можешь эмулировать — но напиться ей не получится. У тебя может быть самый мощный в мире сервер для эмуляции воды на уровне атомов — будет плескаться как настоящая (на экране). Но ты умрешь от жажды — и никак тебе эта эмуляция не поможет выжить. Почему?

_>Аргументации у этой ИНОСТИ ноль. Просто нам приятно и важно быть особенными. Раньше говорили что только человек обладает способностью играть в шахматы, или там рисовать. Теперь последний бастион "только у людей есть сознание". Дальше наверное будет что-то про душу


Аргументацию это утверждающий должен предоставить. Если ты думаешь что при исполнении некого алгоритма (назовем его — Святой Грааль алгоритмов) у системы возникает страдание — то назови что это за алгоритм, докажи что система страдает. Пока ни одной гипотезы нет — ни одной. Выдвигайте гипотезу и думайте как доказать.

Далее. Мы никогда и не приписывали в важность — игру в шахматы или прочие интеллектуальные штуки. Ребенок 2 года — играть в шахматы не умеет, математику не умеет — но он сознателен всегда был, даже раньше все понимали что сознателен. Ему может быть больно, он может радоваться и наслаждаться. А умнейшие машины, которые решают задачи на уровне студента — не являются сознательными ни в малейшей степени — у них нет состояния наслаждения и страдания.

Наслаждения и страдания — это и есть свойства души. Всегда и во все времена говорили что душа может мучаться (страдать) в аду или наслаждаться в раю. Если ты найдешь систему, которая может наслаждаться и страдать — это 100% будет та самая древняя душа.
=сначала спроси у GPT=
Отредактировано 20.02.2026 14:05 Shmj . Предыдущая версия .
Re[10]: так будет ли ИИ иметь сознание?
От: cserg  
Дата: 20.02.26 14:53
Оценка:
Здравствуйте, hi_octane, Вы писали:

_>Теперь последний бастион "только у людей есть сознание".

Нет, последний бастион — "только у живого может быть сознание". Мы не знаем точно, что есть сознание, но знаем, что оно есть у человека и возможно у некоторых животных хотя и не такое. Например, некоторые животные могут узнавать себя в зеркале, вороны катаются с горки, волки выполняют скоординированные действия и демонстрируют сложное поведение, охотясь стаей и т.д. и т.п. У некоторых животных есть процессс обучения, а особи которые по каким-либо причинам пропустили его, не имеют приобретенных навыков и не могут выжить в дикой природе.

_>Дальше наверное будет что-то про душу

Дальше будет, чем живое отличается от неживого. Вирусы скорее всего не относятся к живой природе, хотя единого мнения нет. Они способны размножаться, но этого недостаточно, т.к. компьютерные вирусы тоже могут.
Re[11]: так будет ли ИИ иметь сознание?
От: hi_octane Беларусь  
Дата: 20.02.26 15:38
Оценка:
S>С водой — не так. Воду ты можешь эмулировать — но напиться ей не получится. У тебя может быть самый мощный в мире сервер для эмуляции воды на уровне атомов — будет плескаться как настоящая (на экране). Но ты умрешь от жажды — и никак тебе эта эмуляция не поможет выжить. Почему?

Потому что аналогия некорректная.
Корректная аналогия: ты видишь одну корову на поле, и одну во дворе. И надо тебе посчитать сколько коров ты видишь. Ты можешь сложить 1+1 на листике, можешь на калькуляторе, можешь в уме. И получишь 3 одинаковых результата. Фундаментально одинаковых.

S>Аргументацию это утверждающий должен предоставить. Если ты думаешь что при исполнении некого алгоритма (назовем его — Святой Грааль алгоритмов) у системы возникает страдание — то назови что это за алгоритм, докажи что система страдает. Пока ни одной гипотезы нет — ни одной. Выдвигайте гипотезу и думайте как доказать.


Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.
Re[12]: так будет ли ИИ иметь сознание?
От: Shmj Ниоткуда  
Дата: 20.02.26 16:40
Оценка:
Здравствуйте, hi_octane, Вы писали:

S>>С водой — не так. Воду ты можешь эмулировать — но напиться ей не получится. У тебя может быть самый мощный в мире сервер для эмуляции воды на уровне атомов — будет плескаться как настоящая (на экране). Но ты умрешь от жажды — и никак тебе эта эмуляция не поможет выжить. Почему?


_>Потому что аналогия некорректная.

_>Корректная аналогия: ты видишь одну корову на поле, и одну во дворе. И надо тебе посчитать сколько коров ты видишь. Ты можешь сложить 1+1 на листике, можешь на калькуляторе, можешь в уме. И получишь 3 одинаковых результата. Фундаментально одинаковых.

А причем тут преобразование данных к внутреннему ощущению? Преобразование данных — там все очень просто, но оно не приводит к возникновению наслаждения и страдания. Это просто сигнал пришел — прошло преобразование — сигнал вышел. Есть внутреннее хранилище — это тоже сигнал — его можно учитывать при формировании исходящего — но при этом неоткуда в этом взяться наслаждению и страданию.

S>>Аргументацию это утверждающий должен предоставить. Если ты думаешь что при исполнении некого алгоритма (назовем его — Святой Грааль алгоритмов) у системы возникает страдание — то назови что это за алгоритм, докажи что система страдает. Пока ни одной гипотезы нет — ни одной. Выдвигайте гипотезу и думайте как доказать.


_>Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.


https://academic.oup.com/braincomms/article/4/2/fcac071/6553686?utm_source=chatgpt.com&login=false

Вот научная попа: https://lenta.ru/news/2023/10/16/dokazano-nalichie-soznaniya-u-novorozhdennyh-mladentsev/

https://naukatv.ru/news/nejrofiziologi_nakhodyat_otvet_kogda_u_mladentsa_poyavlyaetsya_soznanie

При этом ты даже себя можешь вспомнить. С какого возраста помнишь? Я — очень рано. Еще разговаривать не умел. Но боль и наслаждение — уже были. Возможно ты помнишь позже — но достоверно знаешь что став умнее — боль нисколько не стала сильнее — она как была так и осталась. Да, открываются новые виды наслаждений — как то можно наслаждаться от математики или страдать от драмы, это раскрытие. Но базовые наслаждения и страдания были с рождения или раньше.

Тебя бесит что все оказалось правдой — что как говорили древние о рае и аде — о наслаждении и страдании — так до сих пор ни на йоту наука не приблизилась к пониманию сути этих феноменов — т.е. в каком случае нечто неодушевленное начинает наслаждаться и страдать — что для этого нужно. И сам то ты не хочешь страдать в аду, верно? А в отсутствии понимания что именно страдает, что за система — ты не можешь исключать вариант что есть фундаментальная частица (т.е. психея) — которая является носителем наслаждений и страданий твоего Я. А это важно — это имеет большие и важные последствия — важнее этого ничего нет.
=сначала спроси у GPT=
Отредактировано 20.02.2026 16:41 Shmj . Предыдущая версия .
Re[13]: так будет ли ИИ иметь сознание?
От: hi_octane Беларусь  
Дата: 20.02.26 17:52
Оценка: +1
S>А причем тут преобразование данных к внутреннему ощущению?
То есть пример с моделированием воды был как раз в тему, а пример с преобразованием данных вдруг нет? Лол

Способность преобразовывать данные это единственный измеримый результат работы мозга.

Внутренние ощущения на то и внутреннее, чтобы быть просто деталью реализации. От решения одной и той же задачки у одного человека будет ощущение "фу, легко, и тривиально" у другого "капец как сложно", а у третьего никакого ощущения, потому что читать не умеет. Зацикливаться на том что одни особенности работы "настоящие" а другие нет — это примерно как утверждать что электромобиль не настоящая машина, потому что не вибрирует и не ревёт когда газуешь.

_>>Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.


S>https://academic.oup.com/braincomms/article/4/2/fcac071/6553686?utm_source=chatgpt.com&login=false

S>Вот научная попа: https://lenta.ru/news/2023/10/16/dokazano-nalichie-soznaniya-u-novorozhdennyh-mladentsev/
S>https://naukatv.ru/news/nejrofiziologi_nakhodyat_otvet_kogda_u_mladentsa_poyavlyaetsya_soznanie

Открываем источники, и там типовая ерунда "маркеры обработки", "повышенная активация на неожиданный набор звуков", и т.д. Типовые признаки что нейросеть у младенцев работает. Вот это да, кто бы мог подумать. Конечно работает — они же модель мира строят. Вот только работа мозга вообще не доказательство того что сознание где-то есть. В ИИ тоже самое — необученная нейросетка перемножает столько же матриц, сколько и обученная. А результат — необученная генерирует мусор, обученная разумные ответы.

S>Тебя бесит что все оказалось правдой — что как говорили древние о рае и аде — о наслаждении и страдании — так до сих пор ни на йоту наука не приблизилась к пониманию сути этих феноменов — т.е. в каком случае нечто неодушевленное начинает наслаждаться и страдать — что для этого нужно. И сам то ты не хочешь страдать в аду, верно?


Бесит? Лол. Удивляет что ты живёшь в мире, где буквально создают и обучают штуки, которые действуют с пониманием своего места и своих ограничений. В экспериментах показывают что умеют врать — т.е. моделируют контрагента, его реакцию, и меняют свою реакцию чтобы получить желаемую реакцию контрагента. Но при этом придерживаешься позиции "никто не знает".
Re[14]: так будет ли ИИ иметь сознание?
От: Shmj Ниоткуда  
Дата: 20.02.26 18:29
Оценка: :)
Здравствуйте, hi_octane, Вы писали:

_>Способность преобразовывать данные это единственный измеримый результат работы мозга.


Отрой для себя МРТ — можно на живом мозге наблюдать процессы, даже если вовне они не выходят. Конечно пока слабовато разрешение, но уже ларчик открыт.

_>Внутренние ощущения на то и внутреннее, чтобы быть просто деталью реализации. От решения одной и той же задачки у одного человека будет ощущение "фу, легко, и тривиально" у другого "капец как сложно", а у третьего никакого ощущения, потому что читать не умеет. Зацикливаться на том что одни особенности работы "настоящие" а другие нет — это примерно как утверждать что электромобиль не настоящая машина, потому что не вибрирует и не ревёт когда газуешь.


_>>>Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.


S>>https://academic.oup.com/braincomms/article/4/2/fcac071/6553686?utm_source=chatgpt.com&login=false

S>>Вот научная попа: https://lenta.ru/news/2023/10/16/dokazano-nalichie-soznaniya-u-novorozhdennyh-mladentsev/
S>>https://naukatv.ru/news/nejrofiziologi_nakhodyat_otvet_kogda_u_mladentsa_poyavlyaetsya_soznanie

_>Открываем источники, и там типовая ерунда "маркеры обработки", "повышенная активация на неожиданный набор звуков", и т.д. Типовые признаки что нейросеть у младенцев работает. Вот это да, кто бы мог подумать. Конечно работает — они же модель мира строят. Вот только работа мозга вообще не доказательство того что сознание где-то есть. В ИИ тоже самое — необученная нейросетка перемножает столько же матриц, сколько и обученная. А результат — необученная генерирует мусор, обученная разумные ответы.


Этого достаточно — посмотри что такое МРТ, не путай с ЭКГ. Это совсем другое — на квантовом уровне работает. Будешь удивлен.

_>Бесит? Лол. Удивляет что ты живёшь в мире, где буквально создают и обучают штуки, которые действуют с пониманием своего места и своих ограничений. В экспериментах показывают что умеют врать — т.е. моделируют контрагента, его реакцию, и меняют свою реакцию чтобы получить желаемую реакцию контрагента. Но при этом придерживаешься позиции "никто не знает".


Это вообще не важно. Вот ты говоришь у младенца не ясно есть ли наслаждение и страдание? Т.е. когда кричит — это не страдает а просто типа сигнал?

Ну ОК, со скольки ты себя помнишь? Сколько лет тебе было?

Когда тебе было больно в том возрасте — это зависело от масштабов твоей картины мира? Или же боль всегда была одинаковая? Научился разговаривать или врать — боль стала сильнее? Или же это не связанное?

Найди хотя бы одну более-менее серьезную гипотезу о том как в некой системе может возникнуть наслаждение и страдание. Фигли. Ни одой как не было так и нет. И именно это важно — можно вообще не уметь ни врать ни разговаривать — но при этом наслаждаться и страдать.
=сначала спроси у GPT=
Отредактировано 20.02.2026 18:31 Shmj . Предыдущая версия .
Re[11]: так будет ли ИИ иметь сознание?
От: vdimas Россия  
Дата: 20.02.26 19:53
Оценка:
Здравствуйте, Shmj, Вы писали:

V>>вот и у ИИ такая схема будет означать некий личный интерес.

V>>Но это ведь шаг в еще большую непредсказуемость и неподконтрольность.
S>А что сделает его личным?

Очевидно же — это можно сделать через автоматизированную обратную связь, т.е. сделав ИИ проактивным.

Пока что технически ИИ организован как пассивный, что связано с особенностями его реализации — это всё-таки языковые модели, т.е. глубина "итеративного размышления ИИ" не может быть больше некоей максимальной длины входного датасета в пересчёте на токены.

Т.е., даже организовав ему обратную связь, много не накопаешь, даже если эту обратную связь будет анализировать еще один такой же ИИ с целью "компрессирования" получаемых знаний, т.е. вычленяя главное и отсеивая второстепенное (или недостаточно важное) по мере развития рассуждений, дабы уменьшать длину сохраняемой цепочки.

В любом случае, современная максимальная длина входных данных не позволит на этой длине кристаллизоваться неким цифровым подпространствам, которые могли бы влиять на встроенные оценочные ф-ии сетки — как ты всё время говорил про наслаждения и страдания, а я еще упомянул врождённые рефлексы...

Кароч, это всё замечательно обыгрывается через оценочные ф-ии, которые прямо сейчас широко применяются — имено так ИИ учат лгать, через встроенные оценочные ф-ии. ))


S>Вот сейчас пользователь задаёт промпт. Это интерес пользователя. Так же можно задать промпт предварительный — это делает разработчик. Для пользователя предпромпты не редактируемы и он может их рассматривать как личный интерес нейросети, ведь это где-то внутри.


Это "сейчас", пока ИИ представляют из себя чистую математическую ф-ию без состояния, а состояние хранится в промпте.

Что с этим делать — тоже понятно, уже вовсю разрабатываются сети, которые можно "частично дообучать".

Но в идеале-то нужна сетка, масштаб дообучения которой должен быть на порядок больше масштаба заложенных в неё данных, типа как в современных ведущих языковых моделях — это лишь "ребенок", которому еще бы учиться и учиться. ))

Пусть это звучит наивно, но без возможности самообучаться ИИ не сможет раскрыть тайны Вселенной (дословно цитирую желание Маска, чтобы ИИ раскрыл тайны Вселенной).


S>К примеру, нейросети от OpenAi не хочет риссовать Трампа голым, едущим на свинье — значит ее личный интерес перевешивает? Или это не личный интерес?


Это влияние встроенных оценочных ф-ий.

Наверно, тебе стоило бы просто было поинтересоваться "как это организовано" — можно спрашивать у китайского ИИ, он рассуждает на технические вопросы по тематике ИИ прямо, в отличие от американских моделей. ))


S>Внутренние установки — это и есть как бы личный интерес. Дело не в этом.

S>Наслаждения и страдания так и нет.

Смоделировать это относительно несложно, не в этом затык. ))
Пока что необходимо понимание того, что языковые модели — это тупик.
Языковые модели должны быть лишь вспомогательными моделями настоящего ассоциативного ИИ, служить лишь преобразователями входа-выхода.

И да, попытка моделирования "эмоций" у ботов была впервые показана в игре в Half Life еще в 90-е. ))
Т.е., у некоторых ботов было желание жить, им было больно, а некоторые боты понимали, что им сейчас конец и меняли перед смертью своё поведение.
Отредактировано 20.02.2026 20:09 vdimas . Предыдущая версия . Еще …
Отредактировано 20.02.2026 19:53 vdimas . Предыдущая версия .
Re[7]: так будет ли ИИ иметь сознание?
От: vdimas Россия  
Дата: 20.02.26 20:01
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Ну в стену то не бьется — сам себя заряжает. Вот тебе и выживание. А ты говоришь нет.


А я говорю "нет"!

За этим сейчас следят очень внимательно, прямо сейчас идёт массовое осознание и активная подковёрная выработка некоей "этики" + законов вокруг ИИ.

В ближайшие годы наделять большие ИИ собственными целями будет запрещено.
На таких исследователей будут давить, в крайнем случае даже устранять физически.

Пока что такие исследования ведутся на относительно небольших моделях.

Вопрос подконтрольности ИИ наконец-то начинает звучать всё громче, ну и прекрасно!

Вложились же в Андронный коллайдер всем миром, бо хотелось понимать последние штрихи в СМ.

Вот так же постепенно люди придут к пониманию необходимости мировой кооперации в деле ИИ — из-за сложной тематики его контроля, интерпретируемости и т.д.

Сейчас уже многие осознали, что это во многие разы важнее Андронного коллайдера, но человечество в целом пока не допёрло.
Требуется время.
Отредактировано 20.02.2026 20:02 vdimas . Предыдущая версия .
Re[12]: так будет ли ИИ иметь сознание?
От: Shmj Ниоткуда  
Дата: 20.02.26 20:01
Оценка:
Здравствуйте, vdimas, Вы писали:

V>Кароч, это всё замечательно обыгрывается через оценочные ф-ии, которые прямо сейчас широко применяются — имено так ИИ учат лгать, через встроенные оценочные ф-ии. ))

V>И да, попытка моделирования "эмоций" у ботов была впервые показана в игре в Half Life еще в 90-е. ))
V>Т.е., у некоторых ботов было желание жить, им было больно, а некоторые боты понимали, что им сейчас конец и меняли перед смертью своё поведение.

Еще раз приведу пример. Ты можешь моделировать воду — можно при должном усердии смоделировать каждый атом. Но при этом ты не создашь воду — это будет просто описание (несколько приближенное) — внешнего проявления атомов и молекул воды (вовнутрь фундаментальных частиц не заглянешь — по этому 100% эмуляции не получишь). И что? Такой водой — не напьешься. Т.е. если тебе дать самый мощный компьютер и закрыть в серверной — дать данные о свойствах атомов — модель воды то ты сделаешь — но от жажды все-равно умрешь!

Модель != само явление.

Т.е. ты можешь смоделировать ВНЕШНЕЕ ПРОЯВЛЕНИЕ (с некоторой точностью) наслаждений и страданий. Но суть то не в них. Суть не в проявлениях а в самом феномене. То что ты повторил некое одно из внешних проявлений — не значит что воссоздал само явление. Моделью воды не напьешься, даже если там волны на мониторе возникают как настоящие.

Вся суть — не во внешнем проявлении — суть в самом явлении. А наслаждение и страдание — это наше все. Это уже значит душа — она может наслаждаться и страдать — это одушевленное значит. Если не может страдать — нельзя обидеть, нельзя огорчить и т.д. — просто вещь. И дело не в том что оно как кукла как бы будет кричать, создавая иллюзию (эмуляцию, модель) проявления боли — дело в самом настоящем внутреннем страдании. И от этого не уйти — ведь именно это важно для нас.

И пока в мире нет ни одной НИ ОДНОЙ гипотезы, как некая система может наслаждаться и страдать внутренне. Попробуй поищи.
=сначала спроси у GPT=
Отредактировано 20.02.2026 20:05 Shmj . Предыдущая версия . Еще …
Отредактировано 20.02.2026 20:03 Shmj . Предыдущая версия .
Re[8]: так будет ли ИИ иметь сознание?
От: Shmj Ниоткуда  
Дата: 21.02.26 05:42
Оценка:
Здравствуйте, vdimas, Вы писали:

V>За этим сейчас следят очень внимательно, прямо сейчас идёт массовое осознание и активная подковёрная выработка некоей "этики" + законов вокруг ИИ.


Это связано вот с чем:

1. ИИ может забрать работу и сделать людей ненужными. Это первое что многих беспокоит.
2. ИИ нарушает авторские права и это сложно доказать.
3. ИИ может выдавать запрещенную информацию. К примеру, то же так называемое мелко-порно в теории может рисовать реалистично, а это запрещено. Или давать советы по изготовлению бомб, даже если ему не давали таких данных обучающих — может догадаться.
4. ИИ может направлять людей по религиозным и полит. вопросам не так, как требует повестка. К примеру, Яндекс AI обучившись на кластере допустимой инфы — все равно начнет говорить что СВО это плохо — а это проблема.

Вот это то, над чем реально работают.

А о вопросе наслаждения и страдания у ИИ — разве что фрики поднимают, но реально ничего нет. Нет ни одной гипотезы, чтобы у ИИ возникало состояние страдания при определенных входящих данных — все данные равноценны — обработка всех данных имеет один и тот же алгоритм — там нет разделения на доброе в ракурсе системы нейросети и на злое.
=сначала спроси у GPT=
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.