Re[26]: В догонку
От: tinytjan  
Дата: 21.03.05 10:19
Оценка:
Здравствуйте, CiViLiS, Вы писали:

CVL>>>2. Можно ли сделать проверку орфографии для русского языка, используя НС? Какие будут затраты и сложность?

G>>Хм... Я вот, например, как и многие, просто не знаю, как проверяется орфография . Но мне кажется, у нас, в россии, так не делают. А вот в Китае — там все возможно
CVL>Ну тут все просто... R = {абвг...я} N = 20 -- максимальная длина слова... Хоца взять и отобразить R^N -> {0,1}. Как раз стандратная постановка задачи.. А вот как обучать я уже не знаю... показывать НС надо не все слова, так как в русских словах достаточно простая структура... Помоему не такая и уж сложная задача для НС

Такая постановка задачи для обучения не пойдет. Придумай как подавать слова на вход, как получать выход, если че-нить дельное придумаешь, мона попробовать, благо софтинка есть .
Если будут идеи как подавать входы и выходы -- кидайте. Длина слов может быть разной, но количество нейронов на входе и выходе должно быть постоянным. Простое забивание пробелами не пойдет.
Re[26]: В догонку
От: Gaperton http://gaperton.livejournal.com
Дата: 21.03.05 10:41
Оценка:
Здравствуйте, CiViLiS, Вы писали:

G>>1) структура множества неизвестна, и благодаря убожеству алгоритмов подбора коэффициентов эта возможность так и остается потенциальной.

G>>2) Сложно гарантировать результат. Даже при известной структуре множества обучить сеть — креатифф и гимаррой.
CVL>Ну а вдруг кто нить придумает новые алгоритмы обучения?
Ну вот когда придумает, тогда и можно будет о чем-то говорить. Без алгоритма подбора коэффициентов "сеть" вообще никому не нужна. Смотреть на нее штоль?

CVL>>>1. Могут ли НС решать систему линейных уравненй?

G>>Ага. За О(1) . Нейросетевики весьма изобретательные люди, могут запросто придумать нетрадиционный способ удалить гланды, а если надо будет — то обзовут и формулы Крамера нейросетью .
CVL>Ну я тут серьездно между прочем... Я вот тоже когда то думал, что НС это замена диффурам и прочей ручной математики.. Примерно в одно время я узнал, про мощьность обучаемого множества... А потом стал требовать чтобы мне показали как НС решает систему лин уравнений -- я же сам с кафедры МЛиВА (мат логика и высшая алгебра), все наши труды сводились к решению системы уравнений... Правда поля бывали не обычными, но в силу элементарности метода Гаусса, это хлопот прибавляло не много...

Известно 3 класса численных методов решения систем линейных уравнений, и штук 20-40 (или больше — боюсь соврать, не считал) разных методов их численного решения. Вам мало?

CVL>>>2. Можно ли сделать проверку орфографии для русского языка, используя НС? Какие будут затраты и сложность?

G>>Хм... Я вот, например, как и многие, просто не знаю, как проверяется орфография . Но мне кажется, у нас, в россии, так не делают. А вот в Китае — там все возможно
CVL>Ну тут все просто... R = {абвг...я} N = 20 -- максимальная длина слова... Хоца взять и отобразить R^N -> {0,1}. Как раз стандратная постановка задачи.. А вот как обучать я уже не знаю... показывать НС надо не все слова, так как в русских словах достаточно простая структура... Помоему не такая и уж сложная задача для НС.

То есть вы хотите слова со словарем сверять, чтоли? Использовать нейросеть в качестве std::map< std::string, bool >? Только с учетом словоформ?
1) Не хотите прикинуть неободимое количество нейронов для этой задачи — чтобы хотя бы на тысячу слов хватило?
2) Представляете, как будет выглядеть ваше искомое подмножество R^N? Его точки при вашем отображении будут распределены хаотическим образом. Поэтому обучить НС в этом случае у вас не получится даже не потому, что НС плохи — поймите меня правильно — я ни на что не намекаю .
Re[27]: В догонку
От: CiViLiS Россия  
Дата: 21.03.05 16:23
Оценка:
Здравствуйте, Gaperton, Вы писали:

G>Известно 3 класса численных методов решения систем линейных уравнений, и штук 20-40 (или больше — боюсь соврать, не считал) разных методов их численного решения. Вам мало?

Дык я почти про все знаю... только медленные они все и не точные... Вот чтобы за O(1), да и точное решение получить. Было бы очень хорошо... Тады всякие лапаки с линпаками, а также большинство кластеров можно было бы повыкидывать

G>То есть вы хотите слова со словарем сверять, чтоли? Использовать нейросеть в качестве std::map< std::string, bool >? Только с учетом словоформ?

ну типа того А шо низя?
G>1) Не хотите прикинуть неободимое количество нейронов для этой задачи — чтобы хотя бы на тысячу слов хватило?
Ну мои прикидывания вот такие: 33 буквы, максимальная длина 20 букв. Получается 33^20. Мдя.. что-то много получается. А могет, чисто ради эксперимента возьмем слова длины 5. Тады нужно всего 39135393 нейрончиков.... Вроде тоже много. Жаль такая идея пропала. Ладно пойду думать, могет через разреженные матрицы выкручусь

G>2) Представляете, как будет выглядеть ваше искомое подмножество R^N? Его точки при вашем отображении будут распределены хаотическим образом. Поэтому обучить НС в этом случае у вас не получится даже не потому, что НС плохи — поймите меня правильно — я ни на что не намекаю .

Ну почему хаотичным... ИМХО закономерности будут прослеживаться. Если не на глазок, то стат методы, должны показать всю поднаготную .

ЗЫ помоему я начинаю бредить
<< RSDN@Home 1.1.4 beta 4 rev. 361>>
"Бог не терпит голой сингулярности" -- Роджер Пенроуз
Re[22]: В догонку
От: Sinclair Россия https://github.com/evilguest/
Дата: 22.03.05 04:16
Оценка: +1
Здравствуйте, NotGonnaGetUs, Вы писали:

S>>Лично для меня вес литературы большого значения не имеет — придите в любой книжный ларек и посмотрите на обилие трудов по психоэнергетике и накачке ауры.

NGG>Ну, а что вы хоите сказать? Что мои слова станут для вас более убедительны, чем изложение теории НС в литературе?
Я хочу сказать, что утверждения типа "точность решения задачи при помощи НС можно оценить методом Кусквангера" гораздо убедительнее "вышло пятьдесят книг про оценку точности НС-решений".
NGG>Хотите обзорную выжимку о НС?
Да.
NGG>Тогда придёт "Gaperton"(имя нарицательное) и начнёт утверждать, что "сплайны круче всех на свете", как это делалось в этой ветке.
Если кто-то будет сводить всё к скандалу, то мы его заткнем. Но надо быть готовым к тому, что на предложение порешать квадратное уравнение через НС здесь могут предложить посчитать дискриминант.
NGG>В итоге всё сведётся к тому, что есть сейчас: противник НС готов клясться мамой, что НС — тупик,
Нет. Его мама тут ни при чем. Он готов обсуждать любые разумные аргументы. Скажите хоть что-то такое, с чем можно спорить.
NGG>я не могу тратить время на то, что бы его разубеждать приводя конкретные задачи и конкретные решение на базе НС.
В таком случае дискуссию лучше свернуть. Потому как вопросы веры и религии нам не интересны.
NGG>Нет. Мы переходим к тому, что НС обладает потенциальной возможностью "максимально распараллелить вычисление"(ой, как не грамотно звучит).
NGG>Есть такое понятие как алгоритмическая сложность задачи. Появляется оно, как только алгоритм решения задачи записан для исполнения неким вычислителем.
Ну, с понятием алгоритмической сложности мы более-менее знакомы.
NGG>В итоге вычислительная сложность становится O(1), вместо O(n) в классических алгоритмах.
Ну то есть на самом деле сложность остается O(N), и собственно выигрыш получается за счет того, что несколько операций выполняются одновременно. Причем для этого нужно специализированное железо. Ок, понятно.
NGG>Очевидно, что эмулируя НС на PC, никакого o(1) получено не будет.
Это тоже понятно. Что-то мне подсказывает, что, к примеру, решение системы линейных уравнений фиксированной размерности можно тоже воплотить в железе. Причем так, что решение будет выдаваться за один такт.
NGG>Я имею ввиду, что сети не требуют заниматься "задачей распараллеливания "классических" вычислительных моделей", поскольку уже представляют распараллеленнное до "не могу" решение.
Ну вообще-то сплайны, к примеру, тоже позволяют легко распараллеливать вычисления. И по аналогичной причине — расчеты различных фрагментов кривой выполняются независимо.
S>>Тут фигурирует упоминание ограничения на точность решения. А, насколько мне известно, способов хотя бы оценить точность решения при помощи НС, не существует. Опровергните, если это возможно.
NGG>При обучении сети вводится понятие функционал оптимизации. Например, среднеквадратичная ошибка.
Прекрасно.
NGG>Алгоритмы обучения используется для его минимизации.
Я правильно понимаю, что минимизация функционала происходит на обучающем множестве?
NGG>Поэтоу говорить, что нет способов оценить точность решения несколько не верно.
Зададим прямой вопрос: какой метод позволяет оценить погрешность решения, выдаваемого для точки, не принадлежащей обучающему множеству?

NGG>Я ещё раз хочу сказать, я не являюсь энциклопедией по НС, не надо у меня выспрашивать тонкости и тем более спорить, сравнивая НС с десятками других технологий.

NGG>Я имею общее представление о НС, о ряде их плюсов и минусов, т.к. учился в НЦН.
Так я и хочу получить ответ на уровне общих представлений.
NGG>Этих знаний досточно, что бы не воспринимать серьёзно словоблудие о принципиальной тупиковости НС.
Еще раз: Gaperton сформулировал некоторые принципиальные проблемы НС, которые ограничивают их применение в известных ему областях. Да, он несколько эмоционален, но мы и не на заседании ученого совета. Да, он трактует недееспособность НС несколько расширительно. Я достаточно критично отношусь к его высказываниям, но он хотя бы подкрепляет их конкретными утверждениями. Если вы имели смелость называть его утверждения неверными — имейте и терпение обосновать свои.
... << RSDN@Home 1.1.4 beta 4 rev. 347>>
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.