Re: Критика ML с NIPS
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 07.12.17 07:48
Оценка: +4
Здравствуйте, D. Petrov, Вы писали:

DP>tl;dr; Сегодня МЛ скорее Алхимия чем наука. Пользуемся всякими аппроксимациями типа стохастического градиентного спуска которые не могут давать гарантированного результата. Испольщуем batch norm (как по-русский?) который вроде ускоряет но опять таки ничего не гарантирует. Да и вообще никто не понимает как этот batch-norm работает. Для всяких там сервисов с фоточками это ок, а для серьезных областей типа медицыны это "труба".


Многое правда, но в целом чернота ящика явно преувеличивается. "никто не понимает как этот batch-norm работает" — слишком сильно сказано. ML — это обычная статистика, но применимая к большим массивам слабоструктурированных данных. Предлагаю обсудить вопрос: можно ли доверять статистике?
Тут все осознают, что автомобили и самолёты создают из деталей, качество и надёжность которых не 100%. Но есть теория надёжности и нормы брака, автомобили и самолёты всё таки делают, на них ездят и летают, им как-то доверяют.
Re[4]: Критика ML с NIPS
От: kl Германия http://stardog.com
Дата: 08.12.17 09:07
Оценка: 2 (1) +2
Здравствуйте, D. Petrov, Вы писали:

kl>>Ну так поэтому и появилось направление под названием Explainable AI.


DP>Ирония в том, что not-explainable tenserflow нынче на два порядка более популярное направление.


Ну так она дает практические результаты, в нее текут инвестиции, что привлекает серьезных людей — ничего удивительного.

Вообще на тему развернулась неплохая публичная дискуссия в FB Yann Lecun (директор ИИ в фейсбуке). Его посыл в том, что исторически нет ничего странного или удивительного в том, что практика обгоняет теорию по отдельным направлениям и это не повод перестать практиковать и ждать пока будут готовы теоретические инструменты.

Правда в этом, конечно, есть, но завершающий призыв к Али что, мол, если не не хватает теории, то иди работай над ней, а не жалуйся, довольно смехотворен.
no fate but what we make
Re[3]: Критика ML с NIPS
От: steep8  
Дата: 08.12.17 03:36
Оценка: 3 (1) +1
Здравствуйте, Sharov, Вы писали:

S>Тут другая проблема -- качество и надежность достигаются за счет "отлаживаемости", т.е. это итеративный сходящийся процесс. Нейросети, на сколько я знаю, невозможно отлаживать -- почему появлся тот или иной коэффицент и т.д.


Более того, разные нейросети (в том числе нейросети с разными коэффициентами) могут давать одинаковый результат на прошлых стат. данных. А вот на будущих данных могут дать различный результат. Т.е. это просто напоминает школьника, который знает ответ, но не знает решения. Он подгоняет свое решение под ответ. А правильное ли оно или нет, сработает на другой задаче такого класса — не знает.
Re: Критика ML с NIPS
От: kl Германия http://stardog.com
Дата: 11.12.17 17:27
Оценка: 5 (1)
Здравствуйте, D. Petrov, Вы писали:

DP>Вчера на NIPS была интересная презентация с критикой ML.


Кстати, вот на днях еще интересная штука появилась, стала обсуждаться: The Case for Learned Index Structures. Теперь не только алгоритмы будут черным ящиком, но и структуры данных (в данном случае для индексов в БД)
no fate but what we make
Критика ML с NIPS
От: D. Petrov США  
Дата: 07.12.17 06:16
Оценка: 3 (1)
Вчера на NIPS была интересная презентация с критикой ML.

tl;dr; Сегодня МЛ скорее Алхимия чем наука. Пользуемся всякими аппроксимациями типа стохастического градиентного спуска которые не могут давать гарантированного результата. Испольщуем batch norm (как по-русский?) который вроде ускоряет но опять таки ничего не гарантирует. Да и вообще никто не понимает как этот batch-norm работает. Для всяких там сервисов с фоточками это ок, а для серьезных областей типа медицины это "труба".

Смотреть с 11ой минуты.

https://www.youtube.com/watch?v=Qi1Yry33TQE
Отредактировано 07.12.2017 7:53 D. Petrov . Предыдущая версия .
Re: Критика ML с NIPS
От: TMU_1  
Дата: 07.12.17 06:31
Оценка:
DP>Вчера на NIPS была интересная презентация с критикой ML.
DP>tl;dr; Сегодня МЛ скорее Алхимия чем наука. Пользуемся всякими аппроксимациями типа стохастического градиентного спуска которые не могут давать гарантированного результата. Испольщуем batch norm (как по-русский?) который вроде ускоряет но опять таки ничего не гарантирует. Да и вообще никто не понимает как этот batch-norm работает. Для всяких там сервисов с фоточками это ок, а для серьезных областей типа медицыны это "труба".




На мой взгляд, это самое серьезное препятствие к продвижению ML. Едва ли, скажем, управление трафиком (воздушным, хехе), будет доверено системе, представляющей из себя черный ящик. Да и любое другое более-менее ответственное применение.
Re[2]: Критика ML с NIPS
От: D. Petrov США  
Дата: 07.12.17 08:04
Оценка:
Здравствуйте, Nuzhny, Вы писали:

N>Многое правда, но в целом чернота ящика явно преувеличивается. "никто не понимает как этот batch-norm работает" — слишком сильно сказано. ML — это обычная статистика, но применимая к большим массивам слабоструктурированных данных. Предлагаю обсудить вопрос: можно ли доверять статистике?


О том то и речь... Если ты делаешь все "по науке" то и оптимизацию будешь делать точными методами типа обращения матриц. Но где то на размерности 3го порядка такая возмжность теряется и приходится пользоваться приближенными методами. Современный ML это и есть умение работать с этими приблеженными методами путем их комбинирования и допиливания. Здесь и теряется связь с наукой и начинается алхимия.

PS: Я не пытаюсь доказать, что ML — ересь. Просто надо помнить о таких моментах если серьезно занимаешся этой облатью.
Re[2]: Критика ML с NIPS
От: kl Германия http://stardog.com
Дата: 07.12.17 09:57
Оценка:
Здравствуйте, TMU_1, Вы писали:

TMU>На мой взгляд, это самое серьезное препятствие к продвижению ML. Едва ли, скажем, управление трафиком (воздушным, хехе), будет доверено системе, представляющей из себя черный ящик. Да и любое другое более-менее ответственное применение.


Ну так поэтому и появилось направление под названием Explainable AI.
no fate but what we make
Re[2]: Критика ML с NIPS
От: steep8  
Дата: 07.12.17 10:27
Оценка:
Здравствуйте, Nuzhny, Вы писали:

N>Многое правда, но в целом чернота ящика явно преувеличивается. "никто не понимает как этот batch-norm работает" — слишком сильно сказано. ML — это обычная статистика, но применимая к большим массивам слабоструктурированных данных. Предлагаю обсудить вопрос: можно ли доверять статистике?


По моему, для серьезных дисциплин мы не можем доверять статистике. Точнее у нас должна быть адекватная модель, которая описывает действительность.
Вот эту модель мы можем проверять как на статистике, так и на искусственных данных. Должны проверять корректную работу модели в крайних точках и т.п.
Иначе каждый новый случай, не попадающийся в статистике , будет приводить к аварии.
Re[3]: Критика ML с NIPS
От: steep8  
Дата: 07.12.17 10:29
Оценка:
Здравствуйте, D. Petrov, Вы писали:

DP>О том то и речь... Если ты делаешь все "по науке" то и оптимизацию будешь делать точными методами типа обращения матриц. Но где то на размерности 3го порядка такая возмжность теряется и приходится пользоваться приближенными методами. Современный ML это и есть умение работать с этими приблеженными методами путем их комбинирования и допиливания. Здесь и теряется связь с наукой и начинается алхимия.


На самом деле не важно точно или не точно выполнена оптимизация, если используется некорректна модель. А график по прошлым точкам и будет в большинстве своем некорректной моделью.
Re[2]: Критика ML с NIPS
От: Sharov Россия  
Дата: 07.12.17 11:37
Оценка:
Здравствуйте, Nuzhny, Вы писали:

N>Многое правда, но в целом чернота ящика явно преувеличивается. "никто не понимает как этот batch-norm работает" — слишком сильно сказано. ML — это обычная статистика, но применимая к большим массивам слабоструктурированных данных. Предлагаю обсудить вопрос: можно ли доверять статистике?

N>Тут все осознают, что автомобили и самолёты создают из деталей, качество и надёжность которых не 100%. Но есть теория надёжности и нормы брака, автомобили и самолёты всё таки делают, на них ездят и летают, им как-то доверяют.

Тут другая проблема -- качество и надежность достигаются за счет "отлаживаемости", т.е. это итеративный сходящийся процесс. Нейросети, на сколько я знаю, невозможно отлаживать -- почему появлся тот или иной коэффицент и т.д.
Кодом людям нужно помогать!
Re[3]: Критика ML с NIPS
От: D. Petrov США  
Дата: 07.12.17 21:19
Оценка:
Здравствуйте, kl, Вы писали:

TMU>>На мой взгляд, это самое серьезное препятствие к продвижению ML. Едва ли, скажем, управление трафиком (воздушным, хехе), будет доверено системе, представляющей из себя черный ящик. Да и любое другое более-менее ответственное применение.


kl>Ну так поэтому и появилось направление под названием Explainable AI.


Ирония в том, что not-explainable tenserflow нынче на два порядка более популярное направление.
Re: Критика ML с NIPS
От: Erop Россия  
Дата: 02.02.18 21:28
Оценка:
Здравствуйте, D. Petrov, Вы писали:

DP>Да и вообще никто не понимает как этот batch-norm работает.


Вот прямо никто-никто не понимает. Отучаемся говорить за всех
Все эмоциональные формулировки не соотвествуют действительному положению вещей и приведены мной исключительно "ради красного словца". За корректными формулировками и неискажённым изложением идей, следует обращаться к их автором или воспользоваться поиском
Re[3]: Критика ML с NIPS
От: Erop Россия  
Дата: 02.02.18 21:32
Оценка:
Здравствуйте, D. Petrov, Вы писали:

DP>PS: Я не пытаюсь доказать, что ML — ересь. Просто надо помнить о таких моментах если серьезно занимаешся этой облатью.


Так если серьёзно занимаешься, то это всё понимаешь
Ну и в этом смысле AI всегда был областью алхимии и субоптимальных решений и стохастических алгоритмов
Чем какой-нибудь генетический алгоритм хуже или лучше стохастического градиентного спуска?
Все эмоциональные формулировки не соотвествуют действительному положению вещей и приведены мной исключительно "ради красного словца". За корректными формулировками и неискажённым изложением идей, следует обращаться к их автором или воспользоваться поиском
Re[3]: Критика ML с NIPS
От: Erop Россия  
Дата: 02.02.18 21:35
Оценка:
Здравствуйте, Sharov, Вы писали:

S>Тут другая проблема -- качество и надежность достигаются за счет "отлаживаемости", т.е. это итеративный сходящийся процесс. Нейросети, на сколько я знаю, невозможно отлаживать -- почему появлся тот или иной коэффицент и т.д.


"невозможно" и "не умею" -- разные слова.
Обычно, когда тюнят NN настраивают не коэффициенты конкретные, а архитектуру сети, функцию потерь, нормализацию данных и т. п.
Все эмоциональные формулировки не соотвествуют действительному положению вещей и приведены мной исключительно "ради красного словца". За корректными формулировками и неискажённым изложением идей, следует обращаться к их автором или воспользоваться поиском
Re[4]: Критика ML с NIPS
От: Erop Россия  
Дата: 02.02.18 21:36
Оценка:
Здравствуйте, D. Petrov, Вы писали:

DP>Ирония в том, что not-explainable tenserflow нынче на два порядка более популярное направление.


А что не так с tenserflow? Про глубокие сети люди обычно понимают, как они работают...
Все эмоциональные формулировки не соотвествуют действительному положению вещей и приведены мной исключительно "ради красного словца". За корректными формулировками и неискажённым изложением идей, следует обращаться к их автором или воспользоваться поиском
Re[4]: Критика ML с NIPS
От: Erop Россия  
Дата: 02.02.18 21:41
Оценка:
Здравствуйте, steep8, Вы писали:

S>Более того, разные нейросети (в том числе нейросети с разными коэффициентами) могут давать одинаковый результат на прошлых стат. данных. А вот на будущих данных могут дать различный результат. Т.е. это просто напоминает школьника, который знает ответ, но не знает решения. Он подгоняет свое решение под ответ. А правильное ли оно или нет, сработает на другой задаче такого класса — не знает.


Так AI-задачи все такие, что предполагается какой-то процент отзывчивости/отказов и ошибок.
Ну там, не знаю, управление АКПП или распознавание образов/букв/речи или поддержание равновесия робота или ещё чего.
Всюду могут быть ошибки. И у людей и у AI-алгоритмов. И NN тут ничем не специфичны...

Другое дело, что NN, как классификаторы, например, — дискриминационные по сути. Это накладывает некоторые ограничения.
Но на них тоже можно построить более или менее полную модель. Смотри на GAN, например.
Все эмоциональные формулировки не соотвествуют действительному положению вещей и приведены мной исключительно "ради красного словца". За корректными формулировками и неискажённым изложением идей, следует обращаться к их автором или воспользоваться поиском
Re[2]: Критика ML с NIPS
От: D. Petrov США  
Дата: 03.02.18 06:53
Оценка:
Здравствуйте, Erop, Вы писали:

DP>>Да и вообще никто не понимает как этот batch-norm работает.


E>Вот прямо никто-никто не понимает. Отучаемся говорить за всех


Никто! Изучаем стилистические фигуры речи и, в частности, гиперболу
Re[5]: Критика ML с NIPS
От: hi_octane Беларусь  
Дата: 03.02.18 10:29
Оценка:
E>А что не так с tenserflow? Про глубокие сети люди обычно понимают, как они работают...
Так результатом понимания становятся хитрые картинки которые делают изображение неузнаваемым (вплоть до одного пикселя), и прочие трюки для обмана сети. Проблема в том что люди не понимают что ещё сделать чтобы такие глюки были невозможны.
Re[4]: Критика ML с NIPS
От: hi_octane Беларусь  
Дата: 03.02.18 10:45
Оценка:
S>Более того, разные нейросети (в том числе нейросети с разными коэффициентами) могут давать одинаковый результат на прошлых стат. данных. А вот на будущих данных могут дать различный результат. Т.е. это просто напоминает школьника, который знает ответ, но не знает решения. Он подгоняет свое решение под ответ. А правильное ли оно или нет, сработает на другой задаче такого класса — не знает.

Усугубляет ситуацию то что НС, как самый тупой из школьников, в "необычной" ситуации (например когда входные данные выходят за пределы обучающей выборки), даёт какой-то идиотский ответ (ещё и с большой уверенностью), вместо того чтобы сказать "алерт! алярм! ваще не знаю что происходит".
Re[5]: Критика ML с NIPS
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 03.02.18 11:56
Оценка:
Здравствуйте, hi_octane, Вы писали:

_>Усугубляет ситуацию то что НС, как самый тупой из школьников, в "необычной" ситуации (например когда входные данные выходят за пределы обучающей выборки), даёт какой-то идиотский ответ (ещё и с большой уверенностью), вместо того чтобы сказать "алерт! алярм! ваще не знаю что происходит".


Как научили, так и отвечает.
Re[6]: Критика ML с NIPS
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 03.02.18 11:59
Оценка:
Здравствуйте, hi_octane, Вы писали:

E>>А что не так с tenserflow? Про глубокие сети люди обычно понимают, как они работают...

_>Так результатом понимания становятся хитрые картинки которые делают изображение неузнаваемым (вплоть до одного пикселя), и прочие трюки для обмана сети. Проблема в том что люди не понимают что ещё сделать чтобы такие глюки были невозможны.

Что тут странного? Проблема в том, что многие отожествляют нейросети и человеческое зрение. Но они разные!
Это во-первых.
Во-вторых, это проблема обучающей выборки и первоначальной настройки. Ты упираешь на этот факт именно потому, что твой мозг лекго справляется с шумами. А кто-то учил нейросеть с ними справляться? Нет? Тогда в чём вопрос?
Re[7]: Критика ML с NIPS
От: hi_octane Беларусь  
Дата: 03.02.18 23:48
Оценка:
N>Во-вторых, это проблема обучающей выборки и первоначальной настройки. Ты упираешь на этот факт именно потому, что твой мозг лекго справляется с шумами. А кто-то учил нейросеть с ними справляться? Нет? Тогда в чём вопрос?
Судя по методике поиска создающего "глюк" нейросети изображения — оно находится в любом случае при доступе к "внутренностям" НС, так что проблема не в обучении, а в том что при любом обучении такие изображения существуют. Более современные методики скорее уже следствие того что исходная задача "скучна", и кто-то пошёл искать как сломать НС одним пикселем нужного цвета в нужном месте, кто-то как это сделать не имея доступа к весам нейронов, кто-то ищет "универсальную ломалку" для любого изображения, и т.п.
Re[5]: Критика ML с NIPS
От: Cyberax Марс  
Дата: 05.02.18 04:30
Оценка:
Здравствуйте, hi_octane, Вы писали:

_>Усугубляет ситуацию то что НС, как самый тупой из школьников, в "необычной" ситуации (например когда входные данные выходят за пределы обучающей выборки), даёт какой-то идиотский ответ (ещё и с большой уверенностью), вместо того чтобы сказать "алерт! алярм! ваще не знаю что происходит".

Вообще-то, это тоже обучаемое поведение — делается архитектура, в которой отдельный слой занимается критикой вывода обычных слоёв.
Sapienti sat!
Re: Критика ML с NIPS
От: Cyberax Марс  
Дата: 05.02.18 04:35
Оценка:
Здравствуйте, D. Petrov, Вы писали:

DP>tl;dr; Сегодня МЛ скорее Алхимия чем наука. Пользуемся всякими аппроксимациями типа стохастического градиентного спуска которые не могут давать гарантированного результата.

Ну так интегрирование методом Монте-Карло тоже не даёт гарантированного результата, а используется чуть менее, чем в 100500 мест. В том числе и для сверх-критически важных целей.
Sapienti sat!
Re[2]: Критика ML с NIPS
От: D. Petrov США  
Дата: 05.02.18 05:14
Оценка:
Здравствуйте, Cyberax, Вы писали:

DP>>tl;dr; Сегодня МЛ скорее Алхимия чем наука. Пользуемся всякими аппроксимациями типа стохастического градиентного спуска которые не могут давать гарантированного результата.

C>Ну так интегрирование методом Монте-Карло тоже не даёт гарантированного результата, а используется чуть менее, чем в 100500 мест. В том числе и для сверх-критически важных целей.

Метод Монте-Карло хорошо изучен. Ошибка обратно пропорциональна квадрату от кол-ва экспериментов. С градиентным спуском все сложнее. Можно легко застрять в локальном оптимуме и не выбраться из него.
Re[3]: Критика ML с NIPS
От: Cyberax Марс  
Дата: 05.02.18 07:00
Оценка:
Здравствуйте, D. Petrov, Вы писали:

DP>Метод Монте-Карло хорошо изучен. Ошибка обратно пропорциональна квадрату от кол-ва экспериментов. С градиентным спуском все сложнее. Можно легко застрять в локальном оптимуме и не выбраться из него.

Тут второй вопрос — ну застрянем в локальном минимуме. И что?

И для большинства применений нейронок глобальный минимум может вообще быть контр-продуктивен (из-за overfitting'а).

Вопрос: "А когда останавливаться-то?", — было бы неплохо изучить формально.
Sapienti sat!
Re[4]: Критика ML с NIPS
От: D. Petrov США  
Дата: 05.02.18 07:55
Оценка:
Здравствуйте, Cyberax, Вы писали:

C>Тут второй вопрос — ну застрянем в локальном минимуме. И что?


C>И для большинства применений нейронок глобальный минимум может вообще быть контр-продуктивен (из-за overfitting'а).


C>Вопрос: "А когда останавливаться-то?", — было бы неплохо изучить формально.


В том то и проблема, что ты не знаешь в локальном ты или в глобальном и, соответственно, не всегда понятно, что делать дальше. Если б заранее знал ("ну застрянем в локальном минимуме. И что?") это бы уже дало половину решения.

overfitting — тут непричем. это другими методами решается. тем более в нейросетях. в них bias and variance довольно ортогональны.
Re[6]: Критика ML с NIPS
От: Erop Россия  
Дата: 05.02.18 14:37
Оценка:
Здравствуйте, hi_octane, Вы писали:

_>Так результатом понимания становятся хитрые картинки которые делают изображение неузнаваемым (вплоть до одного пикселя), и прочие трюки для обмана сети. Проблема в том что люди не понимают что ещё сделать чтобы такие глюки были невозможны.


А зачем делать, что бы они были невозможны?

Ну и вообще, это к сетям отношения прямого не имеет. Это, как минимум, про любой бустинг дискриминационного классификатора можно сказать.

Суть же не в том, что NN как-то особо хитро работает, на фоне других классификаторов, наоборот, NN, обычно ТОЧНЕЕ.
Проблема другая. Все классификаторы можно, условно, разделить на дискриминационные и генеративные.
При этом дискриминационные, по самой своей сути не содержат целостной модели объектов, и если им предъявить объект не относящийся к разделяемым дискриминационным классификатором классам, то результат будет случаен.

То есть то, что дискриминационные классификаторы не могут обоснованно сгенерировать отказ, это их такое свойство. Даже если "не такие как все остальные" сделать ещё одним классом, потребуется конструктивное его определение.

Но так уж вышло, что дискриминационные по природе NN, часто точнее, классификаторов иной природы, которые содержат генеративные модели (позволяющие сгенерировать примеры классифицируемых объектов)
Такая трудность есть, но на празднике она не принципиальна. Например, можно сделать подтверждающий генеративный классификатор.

Другое дело, что штуке вроде GAN и VAE стирают эту грань и практически позволяют строить базирующиеся на NN вполне генеративные описания классов объектов

Но это всё равно не имеет отношения к тому, что люде де не понимают, как работает batch-norm или ещё что-то в NN.
Все эмоциональные формулировки не соотвествуют действительному положению вещей и приведены мной исключительно "ради красного словца". За корректными формулировками и неискажённым изложением идей, следует обращаться к их автором или воспользоваться поиском
Re: Критика ML с NIPS
От: sharpcoder Россия  
Дата: 11.02.18 17:48
Оценка:
Здравствуйте, D. Petrov, Вы писали:

DP>Вчера на NIPS была интересная презентация с критикой ML.


DP>tl;dr; Сегодня МЛ скорее Алхимия чем наука. Пользуемся всякими аппроксимациями типа стохастического градиентного спуска которые не могут давать гарантированного результата. Испольщуем batch norm (как по-русский?) который вроде ускоряет но опять таки ничего не гарантирует. Да и вообще никто не понимает как этот batch-norm работает. Для всяких там сервисов с фоточками это ок, а для серьезных областей типа медицины это "труба".


Хрень. Поварись в нейросетях годик, реши пяток задач в области машинного зрения, разбора текстов и тп. Понимание приходит...
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.