Здравствуйте, IT, Вы писали:
kl>>Ничего там нигде не накапливается. kl>>И до и после обучения объем информации остается прежним, никакая статистика не хранится и при принятии решений не используется.
IT>В компьютере объём информации тоже фиксированный, 1 гиг там или 4 у кого.
Неудачная аналогия. Я говорил о хранящейся полезной информации (про которую Вы говорили, что она накапливается), а не про объем памяти. Показанные сети паттерны не сохраняются нигде в памяти, она не может их "вспомнить" при решении боевой задачи. Как и человек, который знает, что слово пишется так, а не иначе, но почему — объяснить не всегда может.
kl>>А обучение идет на примерах — это верно. Только вот чем это не обучение, не ясно.
IT>Это обучение, только без приставки само-.
Не согласен. Когда тебе говорят, что жи-ши надо писать через "и" и подтверждают примерами — это обучение. Когда ты читаешь текст, видишь жи-ши постоянно через "и" и усваиваешь это, причем даже не осозновая, что это правило языка — это самообучение. Нейр. сети способны делать второе.
kl>>Или у Вас какой-то свой критерий, что есть обучение?
IT>Не обучения, а самообучаемости. Как бы это получше объяснить? Ну вот к примеру, если нейронную сеть положить под яблоню и на неё упадёт яблоко, то я очень сильно сомневаюсь, что она изобретёт закон всемирного тяготения.
Безусловно не изобретет. Об этом я писал в ответе Alexander Shargin.
PS. В общем, я понял Ваши возражения. Дальше может пойти только неинтересный терминологический спор.
Здравствуйте, IT, Вы писали:
IT>Здравствуйте, anton_t, Вы писали:
IT>>>Без понятия где там это накапливается, где-нибудь в получаемых коэффициентах связей. Да это и не важно. Важно то, что процесс обучения NN основан на скармливании паттернов.
_>>Ну так всё воспитание и обучение человека основано на "скармливании" паттернов. Ну по крайней мере до определённого этапа.
IT>Некоторые системы образования в некоторых странах основаны на запоминании фактов и паттернов не до определённого возраста, а в принципе. Результат такого образования в программировании известен под названием "индусский код". При этом некоторые страны даже таких "образованных" специалистов завозят пачками, потому что их система образования не способна подготовить никаких.
Ну так создание исскуственного аналога программера-индуса уже будет прорывом.
Здравствуйте, Alexander Shargin, Вы писали:
CU>>Естественно. Тогда давайте и определимся — кому для чего нужен ИИ AS>[skipped]
AS>Тебе не надо, а другим надо, поэтому выделенное выше — в лес.
Угу...
Куклы резиновые и пиво безалкогольное тоже спросом пользуются
Не, а правда, зачем нужны синтетические эмоции при условии,
что человек выдает их без проблем и проблема скорей в том,
что их, эмоций, у человека часто слишком много?
Здравствуйте, bkat, Вы писали:
B>Здравствуйте, Alexander Shargin, Вы писали:
B>Не, а правда, зачем нужны синтетические эмоции при условии, B>что человек выдает их без проблем и проблема скорей в том, B>что их, эмоций, у человека часто слишком много?
Ну например, для Intelligent Tutoring Systems. Есть мнение, что эмоции были бы весьма полезны.
В ИИ много областей, которые на первый взгляд кажутся бессмысленными. Одна студентка моего adviser'a, например, занимается распознаванием юмора в текстах на естественных языках.
Здравствуйте, kl, Вы писали:
IT>>В компьютере объём информации тоже фиксированный, 1 гиг там или 4 у кого.
kl>Неудачная аналогия. Я говорил о хранящейся полезной информации (про которую Вы говорили, что она накапливается), а не про объем памяти.
А, понял. В твоём понимании накапливаться — значит наполняться, вот есть пустое ведро, а вот полное, с накопленной в нём иформацией.
kl>Показанные сети паттерны не сохраняются нигде в памяти, она не может их "вспомнить" при решении боевой задачи. Как и человек, который знает, что слово пишется так, а не иначе, но почему — объяснить не всегда может.
О сохранении конкретно паттернов никто и не говорил. Речь шла об информации, если хотите знаниях.
kl>Не согласен. Когда тебе говорят, что жи-ши надо писать через "и" и подтверждают примерами — это обучение. Когда ты читаешь текст, видишь жи-ши постоянно через "и" и усваиваешь это, причем даже не осозновая, что это правило языка — это самообучение. Нейр. сети способны делать второе.
И первое и второе — суть одно и тоже. Делать по образу и подобию. Креатива нет. Где креатив?
kl>PS. В общем, я понял Ваши возражения. Дальше может пойти только неинтересный терминологический спор.
К сожалению это всё началось с терминологического спора о накоплении, наполнении, информации, знаний.
Неясность изложения обычно происходит от путаницы в мыслях.
Если нам не помогут, то мы тоже никого не пощадим.
Здравствуйте, IT, Вы писали:
IT>И первое и второе — суть одно и тоже. Делать по образу и подобию. Креатива нет. Где креатив?
Ну не одно и то же, но креатива немного, согласен. Хотя, знаете, когда начинаешь копать, *что именно* выучила сеть из набора паттернов — то часто видишь забавные вещи, до которых человек бы не дошел. Эдакий машинный креативчик =)
К сожалению, у Вас (да и не только у Вас) пока не получилось хоть как-то формализовать понятие "креатива", чтоб попробовать его добиться. Ну или на худой конец, придумать тест на его наличие — недаром же все к тесту Тьюринга аппелируют.
Здравствуйте, kl, Вы писали:
kl>Здравствуйте, bkat, Вы писали:
B>>Здравствуйте, Alexander Shargin, Вы писали:
B>>Не, а правда, зачем нужны синтетические эмоции при условии, B>>что человек выдает их без проблем и проблема скорей в том, B>>что их, эмоций, у человека часто слишком много?
kl>Ну например, для Intelligent Tutoring Systems. Есть мнение, что эмоции были бы весьма полезны.
Есть мнение, что даже человеческие наигранные эмоции, только вредят, если это не в театре.
Имитация эмоций (дальше ведь дело не пойдет) — это, на мой взляд, просто надувательство.
kl>В ИИ много областей, которые на первый взгляд кажутся бессмысленными.
Знаю... Сам этим занимался
kl>Одна студентка моего adviser'a, например, занимается распознаванием юмора в текстах на естественных языках.
Не спорю, что этим забавно и интересно заниматься.
Но даже у людей точки зрения на юмор очень сильно различаются.
То что для одного юмор, для другого — просто глупость.
Я, к примеру, видел работы по анализу эмоционального состояния человека.
Правда ИИ там не пахнет и при этом система вполне достойно решает поставленную задачу.
P.S.
Я в общем не против, пусть занимаются машинным поиском шуток и пр...,
но на иронию я тоже имею право
Кстати, это старый трюк, сделать систему причастную к ИИ.
Достаточно назвать систему "Интеллектуальный бла бла бла",
как она приобретает "интеллектуальность" и к ней начинают относиться по-особому
Здравствуйте, kl, Вы писали:
IT>>И первое и второе — суть одно и тоже. Делать по образу и подобию. Креатива нет. Где креатив?
kl>Ну не одно и то же, но креатива немного, согласен. Хотя, знаете, когда начинаешь копать, *что именно* выучила сеть из набора паттернов — то часто видишь забавные вещи, до которых человек бы не дошел. Эдакий машинный креативчик =)
Это не креативчик, это тупые машинные вычисления. Лет 10 назад я занимался имитационным моделированием и модели иногда выдавали такие результаты, до которых человек бы сам сразу не дошёл. Ну, например, после увеличение дальнобойности орудий танков красая армия проигрывает синей. После разбора полётов действительно оказывается что так и должно быть, но с самого начала логика протестует.
kl>К сожалению, у Вас (да и не только у Вас) пока не получилось хоть как-то формализовать понятие "креатива", чтоб попробовать его добиться. Ну или на худой конец, придумать тест на его наличие — недаром же все к тесту Тьюринга аппелируют.
С этим согласен. Сформулировать не получилось, но для начала неплохо было бы понять что вообще нужно формулировать.
Неясность изложения обычно происходит от путаницы в мыслях.
Если нам не помогут, то мы тоже никого не пощадим.
Здравствуйте, bkat, Вы писали:
kl>>Одна студентка моего adviser'a, например, занимается распознаванием юмора в текстах на естественных языках.
B>Не спорю, что этим забавно и интересно заниматься. B>Но даже у людей точки зрения на юмор очень сильно различаются. B>То что для одного юмор, для другого — просто глупость.
Ага. Для меня в этом самое забавное, что joke и funny statement — это две очень большие разницы (по крайней мере, с т.зр. GTVH — general theory of verbal humor).
B>P.S. B>Я в общем не против, пусть занимаются машинным поиском шуток и пр..., B>но на иронию я тоже имею право
Дык, никто тебя этого права и не лишает, я сам им бывает, что им злоупотребляю =)
Здравствуйте, IT, Вы писали:
IT>Ну, например, после увеличение дальнобойности орудий танков красая армия проигрывает синей. После разбора полётов действительно оказывается что так и должно быть, но с самого начала логика протестует.
Это как?
... << RSDN@Home 1.2.0 alpha rev. 745>>
Пусть это будет просто:
просто, как только можно,
но не проще.
(C) А. Эйнштейн
Здравствуйте, bkat, Вы писали:
kl>>Одна студентка моего adviser'a, например, занимается распознаванием юмора в текстах на естественных языках. B>Но даже у людей точки зрения на юмор очень сильно различаются. B>То что для одного юмор, для другого — просто глупость.
Угу, способна ли программа в принципе различить юмор например здесь
? "В этом есть определённые сомнения," (с) потому как юмор это только для участников форума — для тех, кто в теме. Так что сия программа будет отражать либо представление о юморе своей создательницы, либо некий общий сортирный знаменатель.
Здравствуйте, Дм.Григорьев, Вы писали:
ДГ>Здравствуйте, bkat, Вы писали:
kl>>>Одна студентка моего adviser'a, например, занимается распознаванием юмора в текстах на естественных языках. B>>Но даже у людей точки зрения на юмор очень сильно различаются. B>>То что для одного юмор, для другого — просто глупость.
ДГ>Угу, способна ли программа в принципе различить юмор например здесь
? "В этом есть определённые сомнения," (с) потому как юмор это только для участников форума — для тех, кто в теме.
Вот именно — "для тех, кто в теме". Т.е. нужен обширный background knowledge. Над этим и идет работа — создание обширных онтологий, common-sense reasoning и т.д и т.п. Это направление строго ортогонально статистическому.
ДГ>Так что сия программа будет отражать либо представление о юморе своей создательницы, либо некий общий сортирный знаменатель.
Ну не представление создательницы точно, ибо представление каждого конкретного человека не формализуемо (примерно, как и понятие креатива, ктр безуспешно пытались сформулировать выше по теме). Пока получается распознавать простые wordplay (knock-knock) jokes, плюс ограниченные словарным запасом примерно 7-8 летнего ребенка.
Но и это непросто.
Вообще, я разделяю Ваш скепсис, несмотря на то, что даже вроде как соавтор главы к книге по теории распознавания юмора. Правда мое участие ограничивалось консультациями по формальной логике, так что не было особо значимым.
Здравствуйте, WolfHound, Вы писали:
IT>>Ну, например, после увеличение дальнобойности орудий танков красая армия проигрывает синей. После разбора полётов действительно оказывается что так и должно быть, но с самого начала логика протестует. WH>Это как?
У орудий существует эффективная дальность стрельбы. Соответственно, более дальнобойные орудия менее эффективны на близких дистанциях. Если противник успел прорваться на эти дистанции, то капец. В общем, это лишь подтверждение, что, условно говоря, главное не сила (или одна очень сильная характеристика), главное — баланс всех качеств.
Неясность изложения обычно происходит от путаницы в мыслях.
Если нам не помогут, то мы тоже никого не пощадим.
Здравствуйте, kl, Вы писали:
kl>В ИИ много областей, которые на первый взгляд кажутся бессмысленными. Одна студентка моего adviser'a, например, занимается распознаванием юмора в текстах на естественных языках.
О, ради прикола поискал в рунете, оказывается о нас где-то и на русском упоминали: Шутки помогают общению робота и человека.
Написана, в общем-то, чушь, конечно, базы данных слов нет, есть онтологии, что далеко не одно и то же, но все равно забавно =)
Здравствуйте, kl, Вы писали:
kl>Вот именно — "для тех, кто в теме". Т.е. нужен обширный background knowledge. Над этим и идет работа — создание обширных онтологий, common-sense reasoning и т.д и т.п. Это направление строго ортогонально статистическому.
Это давняя и достойная задача — структурирование и представление знаний.
Если в этой работе по юмору какой достойный выхлоп и будет,
то будет он не про юмор и эмоции, а про представление и работу с "обширным background knowledge".
Нужно, это кстати, больше человеку, чем машине.
Andrei F. wrote:
> Для машины Тьюринга математически доказано что *есть случаи*, в которых > эта задача неразрешима. Для человека математического доказательства нет, > но зато этот факт можно доказать практическим путем.
Проблема останова говорит, что нет _алгоритма_. А то, что человек действует исключительно алгоритмически — не доказано. А практически доказать нельзя. Вдруг если для человека дать нужное кол-во времени, то он и решит любую задачу?
Posted via RSDN NNTP Server 2.1 beta
но это не зря, хотя, может быть, невзначай
гÅрмония мира не знает границ — сейчас мы будем пить чай
CU>Нет, это просто попытка донести мысль, что воспроизведение "человеческого сознания" нафиг не нужно. А если "система" по мере "развития" обретёт "нечто", что кто-нибудь захочет назвать "машинным [само]сознанием" — то это ни как не цель, а побочный эффект.
Интересно, а как сделать ИИ не воспроизводя "человеческое сознание"? Построить большую нейронную сеть и ждать когда в ней заведется барабашка, т. е. ИИ? И какие задачи сможет решать такой ИИ?
Здравствуйте, ., Вы писали:
.>Andrei F. wrote:
>> Для машины Тьюринга математически доказано что *есть случаи*, в которых >> эта задача неразрешима. Для человека математического доказательства нет, >> но зато этот факт можно доказать практическим путем. .>Проблема останова говорит, что нет _алгоритма_. А то, что человек действует исключительно алгоритмически — не доказано. А практически доказать нельзя. Вдруг если для человека дать нужное кол-во времени, то он и решит любую задачу?
Ну если "нужное количество времени" >> больше продолжительности жизни, то не знаю... А так, классический пример оттуда же:
function test()
var int n = 1
loop {
var int sumOfFactors = 0
for factor from 1 to n - 1 {
if factor is a factor of n then
sumOfFactors = sumOfFactors + factor
}
if sumOfFactors = n then
exit loop
n = n + 2
}
return
Уже несколько сотен лет люди пытаются понять, выполнится это дело когда-нить, или нет =)