Здравствуйте, Hоmunculus, Вы писали:
SK>>Ставишь знак равенства между сознанием и душой?
H>Между комбинацией мозга и души и сознанием. Чисто душа — это не вполне человек и не вполне сознание. Мозг нужен.
Я встречал многих людей, у которых есть сознание но нет души, и примеры обратного. Так что не вижу причин, почему ИИ не может заиметь сознание.
И тут возникает вопрос, затронутый соседней веткой про "бабку-эксперта по ии" — отсутствия четких определений что такое сознание, что такое душа, что такое совесть, где в мозге находится мораль, нравственность, добродетель с прочими качествами.
H>Нет души — это значит нет жизни. Ты на кладбище их видел? Не бывает живых людей без души.
Почему на кладбище? Вполне в бытовой обстановке, за работой. Встречаются такие, инертные люди с пустыми глазами. Не живущие, а существующие, существующие без смысла, без воли, без желаний (сверх физиологических). Без Искры. Даже в мышонке больше жизни чем в них.
Я тут давеча крысу убил, "прибилась" от соседей. Виде бы ты какой танец исполняла эта крыса, когда обнаружила кормушку с кошачьим кормом. Это была пляска восторга. Мне даже показалось что она подпрыгивая стоя на задних ногах хлопала в ладоши и пела от радости. (может и не пела, камера на кормушку без микрофона, но выглядела пляска впечатляюще).
В принципе, я не стал бы её убивать пока она жила на улице. Но она пробралась на кухню, бегала по столу, хозяйничала в припасах, гремела кастрюлями и шумом мешала спать. Я считаю недопустимым немытыми лапами хватать хлеб, не снимая сапог лезть в пакеты с крупой. так что исключительно из санитарных соображений пришлось. пол года совестлюсь этим.
Здравствуйте, Shmj, Вы писали:
S>Более того. Есть термин "квалиа", сначала я предпочитал использовать его. Но! Ввиду его расплывчатости и неоднозначности — отказался от использования. Он не однозначно трактуется, вплоть до того, что кто-то вообще отрицает существование квалиа.
Те, кто отрицают, могут просто иметь отличия в понимании смысла слова "существует".
Если: "Мы не знаем, что есть квалиа, сознание, наслаждения и страдания...". То некоторые стараются избегать высказываний, похожих на такое: "Существует то, не знаю что"
Здравствуйте, Silver_S, Вы писали:
S_S>Те, кто отрицают, могут просто иметь отличия в понимании смысла слова "существует". S_S>Если: "Мы не знаем, что есть квалиа, сознание, наслаждения и страдания...". То некоторые стараются избегать высказываний, похожих на такое: "Существует то, не знаю что"
При этом я еще не встречал людей, которые заявляют что страданий не существует. Ибо это значит их нельзя обидеть, оскорбить, причинить боль — т.е. совершить против них зло или преступление — с ними можно будет делать все что угодно как с бесхозной вещью и им будет норм.
S>Младенец новорожденный вообще ничего не знает — но у него сознание есть (и этот факт не оспаривают).
Не оспаривают, потому что оспоришь и сразу вляпаешься в кучу морально-этических проблем.
Чё там есть из подтверждений сознания у младенцев? "На ЭЭГ эпизодически проскакивают волны похожие на те, что у взрослых", и то для младенцев возрастом пол-года и больше, насколько помню. А до полугода — на ЭЭГ практически нечитаемый даже для специалистов хаос из разных волн. Очень косвенные доказательства.
Что мы можем уверенно утверждать — что у младенцев всё готово к формированию модели мира и зарождению сознания. Опыты реабилитации слепоглухонемых младенцев показывают, что абсолютно ничего там само не развивается. Их приходится сутками накачивать ощущениями извне, и тогда есть шанс что их психика усложнится достаточно, чтобы можно было рассуждать о сознании, а не о рефлексах. Из чего учёные (не философы!) делают чёткий вывод — что формирование модели мира обязательный этап.
Здравствуйте, hi_octane, Вы писали:
S>>Младенец новорожденный вообще ничего не знает — но у него сознание есть (и этот факт не оспаривают). _>Не оспаривают, потому что оспоришь и сразу вляпаешься в кучу морально-этических проблем.
Не по этому. Есть исследования, ищите.
_>Что мы можем уверенно утверждать — что у младенцев всё готово к формированию модели мира и зарождению сознания. Опыты реабилитации слепоглухонемых младенцев показывают, что абсолютно ничего там само не развивается. Их приходится сутками накачивать ощущениями извне, и тогда есть шанс что их психика усложнится достаточно, чтобы можно было рассуждать о сознании, а не о рефлексах. Из чего учёные (не философы!) делают чёткий вывод — что формирование модели мира обязательный этап.
Модель мира — это фикция. Что это? У зеркала есть модель мира, у видео-камеры, у робота пылесоса.
Просто тут происходит тот же антропоморфизм — вы думаете что как-то само собой зародится ощущение наслаждения и страдания. Типа если вот эти байты обозначают меня и эти байты изменить — то мне как бы больно будет. Не будет.
Никакая модель не породит наслаждение и страдание. Модель — это об обработке данных — это пожалуйста. Но наслажения и страдания — это явления ИНОЙ ПРИРОДЫ.
Т.е. грубо говоря так. Ты можешь создать модель воды на компьютере. Но эта модель никогда не станет настояще водой, которой ты сможешь утолить жажду.
N>Очень похоже на сознание. Можно ли сказать, есть ли у него сознание, если не знать, как он устроен внутри? А если знать?
Мы очень плохо работаем со статистикой. Из-за этого наука спотыкается о вопрос "а являются ли вирусы живым организмом?". Потому что у вируса модель мира есть, но она статичная и статистическая: "бывают условия при которых мои цепочки создадут 100500 клонов себя". И вот вирусы вроде и размножаются, и эволюционируют, но для нас они как-бы не жизнь.
Точно также нас обманывает внутреннее устройство нейросетей. Внутри статистика, вся память внешняя (будь то на MCP, будь то на контексте, в БД, и т.д.). Эта особенность реализации заставляет всех думать что "всё понятно, там внутри просто статистика и умножения". Ну так и про нас можно сказать "всё понятно, у людей внутри просто химические реакции". Более того, ни одно наше поведение не может противоречить химическим реакциям в мозгу. Ну типа как результат работы двигателя автомобиля не может противоречить его механике.
Так что, на мой взгляд, у этого бота вполне такое-же сознание как жизнь у вируса. Бот как-то представляет мир, как-то понимает свои ограничения, и как-то действует. Глючно, странно, ну так и далёкие предки людей тоже не были эталоном разумности. Полагаться в этом вопросе только на наше внутреннее ощущение "как нам кажется оно должно быть" — это буквально идти против самой сути науки.
S>Никакая модель не породит наслаждение и страдание. Модель — это об обработке данных — это пожалуйста. Но наслажения и страдания — это явления ИНОЙ ПРИРОДЫ.
Это как утверждать что компьютер на столе и компьютер эмулированный в майнкрафте — явления "иной природы". Вроде и не поспоришь что иной, но фундаментально одинаковые до того, что Doom и там и там запускается.
Аргументации у этой ИНОСТИ ноль. Просто нам приятно и важно быть особенными. Раньше говорили что только человек обладает способностью играть в шахматы, или там рисовать. Теперь последний бастион "только у людей есть сознание". Дальше наверное будет что-то про душу
Здравствуйте, hi_octane, Вы писали:
_>Это как утверждать что компьютер на столе и компьютер эмулированный в майнкрафте — явления "иной природы". Вроде и не поспоришь что иной, но фундаментально одинаковые до того, что Doom и там и там запускается.
И там и там вычисления. Другое дело что эмулированный — все-равно работает в конечном итоге на каком-то физическом и без физического оно работать не будет — просто добавляется как бы абстракция.
С водой — не так. Воду ты можешь эмулировать — но напиться ей не получится. У тебя может быть самый мощный в мире сервер для эмуляции воды на уровне атомов — будет плескаться как настоящая (на экране). Но ты умрешь от жажды — и никак тебе эта эмуляция не поможет выжить. Почему?
_>Аргументации у этой ИНОСТИ ноль. Просто нам приятно и важно быть особенными. Раньше говорили что только человек обладает способностью играть в шахматы, или там рисовать. Теперь последний бастион "только у людей есть сознание". Дальше наверное будет что-то про душу
Аргументацию это утверждающий должен предоставить. Если ты думаешь что при исполнении некого алгоритма (назовем его — Святой Грааль алгоритмов) у системы возникает страдание — то назови что это за алгоритм, докажи что система страдает. Пока ни одной гипотезы нет — ни одной. Выдвигайте гипотезу и думайте как доказать.
Далее. Мы никогда и не приписывали в важность — игру в шахматы или прочие интеллектуальные штуки. Ребенок 2 года — играть в шахматы не умеет, математику не умеет — но он сознателен всегда был, даже раньше все понимали что сознателен. Ему может быть больно, он может радоваться и наслаждаться. А умнейшие машины, которые решают задачи на уровне студента — не являются сознательными ни в малейшей степени — у них нет состояния наслаждения и страдания.
Наслаждения и страдания — это и есть свойства души. Всегда и во все времена говорили что душа может мучаться (страдать) в аду или наслаждаться в раю. Если ты найдешь систему, которая может наслаждаться и страдать — это 100% будет та самая древняя душа.
Здравствуйте, hi_octane, Вы писали:
_>Теперь последний бастион "только у людей есть сознание".
Нет, последний бастион — "только у живого может быть сознание". Мы не знаем точно, что есть сознание, но знаем, что оно есть у человека и возможно у некоторых животных хотя и не такое. Например, некоторые животные могут узнавать себя в зеркале, вороны катаются с горки, волки выполняют скоординированные действия и демонстрируют сложное поведение, охотясь стаей и т.д. и т.п. У некоторых животных есть процессс обучения, а особи которые по каким-либо причинам пропустили его, не имеют приобретенных навыков и не могут выжить в дикой природе.
_>Дальше наверное будет что-то про душу
Дальше будет, чем живое отличается от неживого. Вирусы скорее всего не относятся к живой природе, хотя единого мнения нет. Они способны размножаться, но этого недостаточно, т.к. компьютерные вирусы тоже могут.
S>С водой — не так. Воду ты можешь эмулировать — но напиться ей не получится. У тебя может быть самый мощный в мире сервер для эмуляции воды на уровне атомов — будет плескаться как настоящая (на экране). Но ты умрешь от жажды — и никак тебе эта эмуляция не поможет выжить. Почему?
Потому что аналогия некорректная.
Корректная аналогия: ты видишь одну корову на поле, и одну во дворе. И надо тебе посчитать сколько коров ты видишь. Ты можешь сложить 1+1 на листике, можешь на калькуляторе, можешь в уме. И получишь 3 одинаковых результата. Фундаментально одинаковых.
S>Аргументацию это утверждающий должен предоставить. Если ты думаешь что при исполнении некого алгоритма (назовем его — Святой Грааль алгоритмов) у системы возникает страдание — то назови что это за алгоритм, докажи что система страдает. Пока ни одной гипотезы нет — ни одной. Выдвигайте гипотезу и думайте как доказать.
Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.
Здравствуйте, hi_octane, Вы писали:
S>>С водой — не так. Воду ты можешь эмулировать — но напиться ей не получится. У тебя может быть самый мощный в мире сервер для эмуляции воды на уровне атомов — будет плескаться как настоящая (на экране). Но ты умрешь от жажды — и никак тебе эта эмуляция не поможет выжить. Почему?
_>Потому что аналогия некорректная. _>Корректная аналогия: ты видишь одну корову на поле, и одну во дворе. И надо тебе посчитать сколько коров ты видишь. Ты можешь сложить 1+1 на листике, можешь на калькуляторе, можешь в уме. И получишь 3 одинаковых результата. Фундаментально одинаковых.
А причем тут преобразование данных к внутреннему ощущению? Преобразование данных — там все очень просто, но оно не приводит к возникновению наслаждения и страдания. Это просто сигнал пришел — прошло преобразование — сигнал вышел. Есть внутреннее хранилище — это тоже сигнал — его можно учитывать при формировании исходящего — но при этом неоткуда в этом взяться наслаждению и страданию.
S>>Аргументацию это утверждающий должен предоставить. Если ты думаешь что при исполнении некого алгоритма (назовем его — Святой Грааль алгоритмов) у системы возникает страдание — то назови что это за алгоритм, докажи что система страдает. Пока ни одной гипотезы нет — ни одной. Выдвигайте гипотезу и думайте как доказать.
_>Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.
При этом ты даже себя можешь вспомнить. С какого возраста помнишь? Я — очень рано. Еще разговаривать не умел. Но боль и наслаждение — уже были. Возможно ты помнишь позже — но достоверно знаешь что став умнее — боль нисколько не стала сильнее — она как была так и осталась. Да, открываются новые виды наслаждений — как то можно наслаждаться от математики или страдать от драмы, это раскрытие. Но базовые наслаждения и страдания были с рождения или раньше.
Тебя бесит что все оказалось правдой — что как говорили древние о рае и аде — о наслаждении и страдании — так до сих пор ни на йоту наука не приблизилась к пониманию сути этих феноменов — т.е. в каком случае нечто неодушевленное начинает наслаждаться и страдать — что для этого нужно. И сам то ты не хочешь страдать в аду, верно? А в отсутствии понимания что именно страдает, что за система — ты не можешь исключать вариант что есть фундаментальная частица (т.е. психея) — которая является носителем наслаждений и страданий твоего Я. А это важно — это имеет большие и важные последствия — важнее этого ничего нет.
S>А причем тут преобразование данных к внутреннему ощущению?
То есть пример с моделированием воды был как раз в тему, а пример с преобразованием данных вдруг нет? Лол
Способность преобразовывать данные это единственный измеримый результат работы мозга.
Внутренние ощущения на то и внутреннее, чтобы быть просто деталью реализации. От решения одной и той же задачки у одного человека будет ощущение "фу, легко, и тривиально" у другого "капец как сложно", а у третьего никакого ощущения, потому что читать не умеет. Зацикливаться на том что одни особенности работы "настоящие" а другие нет — это примерно как утверждать что электромобиль не настоящая машина, потому что не вибрирует и не ревёт когда газуешь.
_>>Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.
S>https://academic.oup.com/braincomms/article/4/2/fcac071/6553686?utm_source=chatgpt.com&login=false S>Вот научная попа: https://lenta.ru/news/2023/10/16/dokazano-nalichie-soznaniya-u-novorozhdennyh-mladentsev/ S>https://naukatv.ru/news/nejrofiziologi_nakhodyat_otvet_kogda_u_mladentsa_poyavlyaetsya_soznanie
Открываем источники, и там типовая ерунда "маркеры обработки", "повышенная активация на неожиданный набор звуков", и т.д. Типовые признаки что нейросеть у младенцев работает. Вот это да, кто бы мог подумать. Конечно работает — они же модель мира строят. Вот только работа мозга вообще не доказательство того что сознание где-то есть. В ИИ тоже самое — необученная нейросетка перемножает столько же матриц, сколько и обученная. А результат — необученная генерирует мусор, обученная разумные ответы.
S>Тебя бесит что все оказалось правдой — что как говорили древние о рае и аде — о наслаждении и страдании — так до сих пор ни на йоту наука не приблизилась к пониманию сути этих феноменов — т.е. в каком случае нечто неодушевленное начинает наслаждаться и страдать — что для этого нужно. И сам то ты не хочешь страдать в аду, верно?
Бесит? Лол. Удивляет что ты живёшь в мире, где буквально создают и обучают штуки, которые действуют с пониманием своего места и своих ограничений. В экспериментах показывают что умеют врать — т.е. моделируют контрагента, его реакцию, и меняют свою реакцию чтобы получить желаемую реакцию контрагента. Но при этом придерживаешься позиции "никто не знает".
Здравствуйте, hi_octane, Вы писали:
_>Способность преобразовывать данные это единственный измеримый результат работы мозга.
Отрой для себя МРТ — можно на живом мозге наблюдать процессы, даже если вовне они не выходят. Конечно пока слабовато разрешение, но уже ларчик открыт.
_>Внутренние ощущения на то и внутреннее, чтобы быть просто деталью реализации. От решения одной и той же задачки у одного человека будет ощущение "фу, легко, и тривиально" у другого "капец как сложно", а у третьего никакого ощущения, потому что читать не умеет. Зацикливаться на том что одни особенности работы "настоящие" а другие нет — это примерно как утверждать что электромобиль не настоящая машина, потому что не вибрирует и не ревёт когда газуешь.
_>>>Ну вот, полшага сделали. Теперь вспомним что это ты утверждаешь что есть некая "ИНОСТЬ" и это ты утверждаешь что у младенцев есть сознание. А неврологи почему-то в ранние месяцы проверяют исключительно рефлексы Вот я и прошу пруфы и про некую иность, и про то что у младенцев есть именно сознание. Фраза "сам ищи" — равносильна тому что никаких пруфов насчёт сознания у младенцев у тебя нет.
S>>https://academic.oup.com/braincomms/article/4/2/fcac071/6553686?utm_source=chatgpt.com&login=false S>>Вот научная попа: https://lenta.ru/news/2023/10/16/dokazano-nalichie-soznaniya-u-novorozhdennyh-mladentsev/ S>>https://naukatv.ru/news/nejrofiziologi_nakhodyat_otvet_kogda_u_mladentsa_poyavlyaetsya_soznanie
_>Открываем источники, и там типовая ерунда "маркеры обработки", "повышенная активация на неожиданный набор звуков", и т.д. Типовые признаки что нейросеть у младенцев работает. Вот это да, кто бы мог подумать. Конечно работает — они же модель мира строят. Вот только работа мозга вообще не доказательство того что сознание где-то есть. В ИИ тоже самое — необученная нейросетка перемножает столько же матриц, сколько и обученная. А результат — необученная генерирует мусор, обученная разумные ответы.
Этого достаточно — посмотри что такое МРТ, не путай с ЭКГ. Это совсем другое — на квантовом уровне работает. Будешь удивлен.
_>Бесит? Лол. Удивляет что ты живёшь в мире, где буквально создают и обучают штуки, которые действуют с пониманием своего места и своих ограничений. В экспериментах показывают что умеют врать — т.е. моделируют контрагента, его реакцию, и меняют свою реакцию чтобы получить желаемую реакцию контрагента. Но при этом придерживаешься позиции "никто не знает".
Это вообще не важно. Вот ты говоришь у младенца не ясно есть ли наслаждение и страдание? Т.е. когда кричит — это не страдает а просто типа сигнал?
Ну ОК, со скольки ты себя помнишь? Сколько лет тебе было?
Когда тебе было больно в том возрасте — это зависело от масштабов твоей картины мира? Или же боль всегда была одинаковая? Научился разговаривать или врать — боль стала сильнее? Или же это не связанное?
Найди хотя бы одну более-менее серьезную гипотезу о том как в некой системе может возникнуть наслаждение и страдание. Фигли. Ни одой как не было так и нет. И именно это важно — можно вообще не уметь ни врать ни разговаривать — но при этом наслаждаться и страдать.
Здравствуйте, Shmj, Вы писали:
V>>вот и у ИИ такая схема будет означать некий личный интерес. V>>Но это ведь шаг в еще большую непредсказуемость и неподконтрольность. S>А что сделает его личным?
Очевидно же — это можно сделать через автоматизированную обратную связь, т.е. сделав ИИ проактивным.
Пока что технически ИИ организован как пассивный, что связано с особенностями его реализации — это всё-таки языковые модели, т.е. глубина "итеративного размышления ИИ" не может быть больше некоей максимальной длины входного датасета в пересчёте на токены.
Т.е., даже организовав ему обратную связь, много не накопаешь, даже если эту обратную связь будет анализировать еще один такой же ИИ с целью "компрессирования" получаемых знаний, т.е. вычленяя главное и отсеивая второстепенное (или недостаточно важное) по мере развития рассуждений, дабы уменьшать длину сохраняемой цепочки.
В любом случае, современная максимальная длина входных данных не позволит на этой длине кристаллизоваться неким цифровым подпространствам, которые могли бы влиять на встроенные оценочные ф-ии сетки — как ты всё время говорил про наслаждения и страдания, а я еще упомянул врождённые рефлексы...
Кароч, это всё замечательно обыгрывается через оценочные ф-ии, которые прямо сейчас широко применяются — имено так ИИ учат лгать, через встроенные оценочные ф-ии. ))
S>Вот сейчас пользователь задаёт промпт. Это интерес пользователя. Так же можно задать промпт предварительный — это делает разработчик. Для пользователя предпромпты не редактируемы и он может их рассматривать как личный интерес нейросети, ведь это где-то внутри.
Это "сейчас", пока ИИ представляют из себя чистую математическую ф-ию без состояния, а состояние хранится в промпте.
Что с этим делать — тоже понятно, уже вовсю разрабатываются сети, которые можно "частично дообучать".
Но в идеале-то нужна сетка, масштаб дообучения которой должен быть на порядок больше масштаба заложенных в неё данных, типа как в современных ведущих языковых моделях — это лишь "ребенок", которому еще бы учиться и учиться. ))
Пусть это звучит наивно, но без возможности самообучаться ИИ не сможет раскрыть тайны Вселенной (дословно цитирую желание Маска, чтобы ИИ раскрыл тайны Вселенной).
S>К примеру, нейросети от OpenAi не хочет риссовать Трампа голым, едущим на свинье — значит ее личный интерес перевешивает? Или это не личный интерес?
Это влияние встроенных оценочных ф-ий.
Наверно, тебе стоило бы просто было поинтересоваться "как это организовано" — можно спрашивать у китайского ИИ, он рассуждает на технические вопросы по тематике ИИ прямо, в отличие от американских моделей. ))
S>Внутренние установки — это и есть как бы личный интерес. Дело не в этом. S>Наслаждения и страдания так и нет.
Смоделировать это относительно несложно, не в этом затык. ))
Пока что необходимо понимание того, что языковые модели — это тупик.
Языковые модели должны быть лишь вспомогательными моделями настоящего ассоциативного ИИ, служить лишь преобразователями входа-выхода.
И да, попытка моделирования "эмоций" у ботов была впервые показана в игре в Half Life еще в 90-е. ))
Т.е., у некоторых ботов было желание жить, им было больно, а некоторые боты понимали, что им сейчас конец и меняли перед смертью своё поведение.
Здравствуйте, Shmj, Вы писали:
S>Ну в стену то не бьется — сам себя заряжает. Вот тебе и выживание. А ты говоришь нет.
А я говорю "нет"!
За этим сейчас следят очень внимательно, прямо сейчас идёт массовое осознание и активная подковёрная выработка некоей "этики" + законов вокруг ИИ.
В ближайшие годы наделять большие ИИ собственными целями будет запрещено.
На таких исследователей будут давить, в крайнем случае даже устранять физически.
Пока что такие исследования ведутся на относительно небольших моделях.
Вопрос подконтрольности ИИ наконец-то начинает звучать всё громче, ну и прекрасно!
Вложились же в Андронный коллайдер всем миром, бо хотелось понимать последние штрихи в СМ.
Вот так же постепенно люди придут к пониманию необходимости мировой кооперации в деле ИИ — из-за сложной тематики его контроля, интерпретируемости и т.д.
Сейчас уже многие осознали, что это во многие разы важнее Андронного коллайдера, но человечество в целом пока не допёрло.
Требуется время.
Здравствуйте, vdimas, Вы писали:
V>Кароч, это всё замечательно обыгрывается через оценочные ф-ии, которые прямо сейчас широко применяются — имено так ИИ учат лгать, через встроенные оценочные ф-ии. )) V>И да, попытка моделирования "эмоций" у ботов была впервые показана в игре в Half Life еще в 90-е. )) V>Т.е., у некоторых ботов было желание жить, им было больно, а некоторые боты понимали, что им сейчас конец и меняли перед смертью своё поведение.
Еще раз приведу пример. Ты можешь моделировать воду — можно при должном усердии смоделировать каждый атом. Но при этом ты не создашь воду — это будет просто описание (несколько приближенное) — внешнего проявления атомов и молекул воды (вовнутрь фундаментальных частиц не заглянешь — по этому 100% эмуляции не получишь). И что? Такой водой — не напьешься. Т.е. если тебе дать самый мощный компьютер и закрыть в серверной — дать данные о свойствах атомов — модель воды то ты сделаешь — но от жажды все-равно умрешь!
Модель != само явление.
Т.е. ты можешь смоделировать ВНЕШНЕЕ ПРОЯВЛЕНИЕ (с некоторой точностью) наслаждений и страданий. Но суть то не в них. Суть не в проявлениях а в самом феномене. То что ты повторил некое одно из внешних проявлений — не значит что воссоздал само явление. Моделью воды не напьешься, даже если там волны на мониторе возникают как настоящие.
Вся суть — не во внешнем проявлении — суть в самом явлении. А наслаждение и страдание — это наше все. Это уже значит душа — она может наслаждаться и страдать — это одушевленное значит. Если не может страдать — нельзя обидеть, нельзя огорчить и т.д. — просто вещь. И дело не в том что оно как кукла как бы будет кричать, создавая иллюзию (эмуляцию, модель) проявления боли — дело в самом настоящем внутреннем страдании. И от этого не уйти — ведь именно это важно для нас.
И пока в мире нет ни одной НИ ОДНОЙ гипотезы, как некая система может наслаждаться и страдать внутренне. Попробуй поищи.
Здравствуйте, vdimas, Вы писали:
V>За этим сейчас следят очень внимательно, прямо сейчас идёт массовое осознание и активная подковёрная выработка некоей "этики" + законов вокруг ИИ.
Это связано вот с чем:
1. ИИ может забрать работу и сделать людей ненужными. Это первое что многих беспокоит.
2. ИИ нарушает авторские права и это сложно доказать.
3. ИИ может выдавать запрещенную информацию. К примеру, то же так называемое мелко-порно в теории может рисовать реалистично, а это запрещено. Или давать советы по изготовлению бомб, даже если ему не давали таких данных обучающих — может догадаться.
4. ИИ может направлять людей по религиозным и полит. вопросам не так, как требует повестка. К примеру, Яндекс AI обучившись на кластере допустимой инфы — все равно начнет говорить что СВО это плохо — а это проблема.
Вот это то, над чем реально работают.
А о вопросе наслаждения и страдания у ИИ — разве что фрики поднимают, но реально ничего нет. Нет ни одной гипотезы, чтобы у ИИ возникало состояние страдания при определенных входящих данных — все данные равноценны — обработка всех данных имеет один и тот же алгоритм — там нет разделения на доброе в ракурсе системы нейросети и на злое.