Информация об изменениях

Сообщение Re[4]: Программы, которые увеличивают полезную сложность от 27.01.2019 15:22

Изменено 27.01.2019 15:24 Shmj

Re[4]: Программы, которые увеличивают полезную сложность
Здравствуйте, hi_octane, Вы писали:

_>Мы — точно не обсуждали Avida. Это вы старались перевести обсуждение на Avida.


Ну почему же? Вы привели список программ и я выбрал лучшую.

Просто вы хотите максимально абстрагироваться от чего-то конкретного — типа вон там уже куча всего есть. А когда смотришь на что-то конкретное из этой "кучи всего" — то видишь "пшик".

_>Пока у нас обсуждение человека который эксперименты в этой области хоть какие-то делал, с человеком который не делал никаких


Эксперименты вашего уровня и я делал.

S>>Ну вот, вы оперируете вашими верованиями. Наверное... Этот вопрос так не решается. Если так решать — то мы и в деда мороза будем вынуждены поверить.

_>Верования это в церкви. В вопросе влезет какая-то программа в заданный объём памяти или нет — я профильный специалист.

Специалист возьмет исходный код да посмотрит. Потому что сложность — штука весьма скользкая, на zx-spectrum и операционная система 16 кБ занимала.

_>В любом случае в такой маленькой "среде" можно обучить огромнейшую нейросеть, которую в рукопашном коде замучаешься программировать. Т.е. обучением будет порождена дополнительная сложность.


Обучение нейросети — это, как правило, воздействие информацией, которую уже структурировало ранее сознание. По сути это то же программирование сознанием. Сначала вам нужно сознательно отобрать правильные варианты и эта информация от сознательной среды неким образом меняет состояние коэффициентов. Исключение — когда задаете некие правила (как в шахматах) и сеть обучается на основе этих правил без внешних примеров (такой случай, пожалуй, было бы интересно рассмотреь).

_>5) Выбранный DeepMind метод "обучения через стравливание между собой" — очень эффективен. В случае старкрафта, go или шахмат — среда вообще никак не оценивает эффективность ходов. Только сами нейросети и никто больше на их "поле битвы" создают основную сложность для выживания друг-друга. Это заставляет их постоянно совершенствоваться.


Пожалуй, с шахматами/игрой в Го было бы интересно разузнать у знающих людей, которые конкретно этим занимались.

1. Какая начальная сложность нейросетевых алгоритмов и вспомогательных алгоритмов? Грубо говоря — сколько строк кода в нейросетевых алгоритмах (пока такая оценка, пусть и упрощенная)?
2. Какого объема нейросети порождаются (грубо говоря, сколько ОЗУ занимают).
3. Стремятся ли они к какому-либо лимиту, или же можно повышать объем сети до бесконечности и всегда будет наблюдаться заметное повышение сложности? Или же после некого объема никакой пользы не получаем?

Вот, пожалуй, такие вопросы.

S>>Не о том. Вы опять говорите о накоплении данных в базе при сохранении алгоритма.

_>Всё о том. Маленький алгоритм, имея огромную базу данных и правила наращивания данных в этой базе, способен действовать словно "развиваясь". Никаких ограничений этому не видно. Если вы утверждаете что ограничения есть — доказывайте что они есть. Пока не доказано — их нет.

Тут весьма интересный вопрос. Вот, если мы возьмем алгоритм перевод с одного языка на другой. Если мы добавляем слова и фразы в словарь — усложнения не происходит — согласитесь? А вот если научим различать падежи или учитывать контекст — это именно алгоритмическое усложнение.

Чтобы исключить эту проблему — нужно задать фиксированную задачу, типа тех же шахмат или более гибкую. Ну и появляются вопросы, которые озвучил выше по тексту (3 штуки).
Re[4]: Программы, которые увеличивают полезную сложность
Здравствуйте, hi_octane, Вы писали:

_>Мы — точно не обсуждали Avida. Это вы старались перевести обсуждение на Avida.


Ну почему же? Вы привели список программ и я выбрал лучшую.

Просто вы хотите максимально абстрагироваться от чего-то конкретного — типа вон там уже куча всего есть. А когда смотришь на что-то конкретное из этой "кучи всего" — то видишь "пшик".

_>Пока у нас обсуждение человека который эксперименты в этой области хоть какие-то делал, с человеком который не делал никаких


Эксперименты вашего уровня и я делал.

S>>Ну вот, вы оперируете вашими верованиями. Наверное... Этот вопрос так не решается. Если так решать — то мы и в деда мороза будем вынуждены поверить.

_>Верования это в церкви. В вопросе влезет какая-то программа в заданный объём памяти или нет — я профильный специалист.

Специалист возьмет исходный код да посмотрит. Потому что сложность — штука весьма скользкая, на zx-spectrum и операционная система 16 кБ занимала.

_>В любом случае в такой маленькой "среде" можно обучить огромнейшую нейросеть, которую в рукопашном коде замучаешься программировать. Т.е. обучением будет порождена дополнительная сложность.


Обучение нейросети — это, как правило, воздействие информацией, которую уже структурировало ранее сознание. По сути это то же программирование сознанием. Сначала вам нужно сознательно отобрать правильные варианты и эта информация от сознательной среды неким образом меняет состояние коэффициентов. Исключение — когда задаете некие правила (как в шахматах) и сеть обучается на основе этих правил без внешних примеров (такой случай, пожалуй, было бы интересно рассмотреь).

_>5) Выбранный DeepMind метод "обучения через стравливание между собой" — очень эффективен. В случае старкрафта, go или шахмат — среда вообще никак не оценивает эффективность ходов. Только сами нейросети и никто больше на их "поле битвы" создают основную сложность для выживания друг-друга. Это заставляет их постоянно совершенствоваться.


Пожалуй, с шахматами/игрой в Го было бы интересно разузнать у знающих людей, которые конкретно этим занимались.

1. Какая начальная сложность нейросетевых алгоритмов и вспомогательных (т.е. те, которые еще нужно дописать, чтобы все заработало) алгоритмов? Грубо говоря — сколько строк кода в нейросетевых алгоритмах и вспомогательных (пока такая оценка, пусть и упрощенная)?
2. Какого объема нейросети порождаются (грубо говоря, сколько ОЗУ занимают).
3. Стремятся ли они к какому-либо лимиту, или же можно повышать объем сети до бесконечности и всегда будет наблюдаться заметное повышение сложности? Или же после некого объема никакой пользы не получаем?

Вот, пожалуй, такие вопросы.

S>>Не о том. Вы опять говорите о накоплении данных в базе при сохранении алгоритма.

_>Всё о том. Маленький алгоритм, имея огромную базу данных и правила наращивания данных в этой базе, способен действовать словно "развиваясь". Никаких ограничений этому не видно. Если вы утверждаете что ограничения есть — доказывайте что они есть. Пока не доказано — их нет.

Тут весьма интересный вопрос. Вот, если мы возьмем алгоритм перевод с одного языка на другой. Если мы добавляем слова и фразы в словарь — усложнения не происходит — согласитесь? А вот если научим различать падежи или учитывать контекст — это именно алгоритмическое усложнение.

Чтобы исключить эту проблему — нужно задать фиксированную задачу, типа тех же шахмат или более гибкую. Ну и появляются вопросы, которые озвучил выше по тексту (3 штуки).