В 1990-х годах в немецкой армии было решено внедрить систему распознавания образов, предназначенную для автоматического выявления танков на местности. Для обучения системы требовались фотографии, и к делу привлекли двух фотографов: один снимал местность с танками, а другой без них. Готовые фотографии разделили на два набора: данные для обучения и тестовые данные. Обученная система идеально распознала танки на тестовых фотографиях, однако провалила первое же полевое испытание, оказавшись абсолютно непригодной к практическому использованию. Когда начали разбираться, в чем дело, то выяснилось, что каждый фотограф делал снимки со своим значением диафрагмы. Эти значения немного отличались, и в процессе обучения система натренировалась не обнаруживать танки, а распознавать разные значения диафрагмы.
antialias_physorg
* 5 / 5 (1) May 25, 2018
...and 'bias' in a training set can be the oddest thing. Here's my personal favorite AI-fail story:In the 1990s the german army had an AI program that was supposed to identify tanks in front of scenery. So they sent out two photographers to take pictures of scenery: One took pictures with tanks the other without. Then the AI was trained. As usual the data was divided into two sets: training data and test data. After training on the training data the AI performed extremely well on the test data.They took this to the field and it didn't work. At all. Turns out the two photographers used slightly different f-stops. The AI had learned to identify what f-stop was used in an image -.not the content.That's the thing with AI...you can train it and it might work (even extremely well and be extremely useful), but you can't actually show *what* it has learned.
Здравствуйте, Lazytech, Вы писали:
L>That's the thing with AI...you can train it and it might work (even extremely well and be extremely useful), but you can't actually show *what* it has learned.
Тут противоречие же. Они ведь как-то узнали, что система обучилась распознавать значение диафрагмы.
Здравствуйте, Kerk, Вы писали:
L>>That's the thing with AI...you can train it and it might work (even extremely well and be extremely useful), but you can't actually show *what* it has learned.
K>Тут противоречие же. Они ведь как-то узнали, что система обучилась распознавать значение диафрагмы. K>Мне вот интересно как узнали?
Естественным интеллектом, скорее всего.
Кто-то догадался, а потом провели подтверждающий эксперимент.
Здравствуйте, alpha21264, Вы писали:
K>>Мне вот интересно как узнали?
A>Естественным интеллектом, скорее всего. A>Кто-то догадался, а потом провели подтверждающий эксперимент.
Ну да, в принципе логично. Если сравнивается не контент, значит дело в каких-то параметрах фотографий. А там уже остается просто перебрать варианты.
Здравствуйте, Lazytech, Вы писали: L>В 1990-х годах в немецкой армии было решено внедрить систему распознавания образов,... L>Вполне возможно, что это просто байка...
Похоже, что это типовая ошибка.
Приятель рассказывал похожую историю:
Обучали нейронку на выделение лиц на фото. На тестовых снимках всё проходило замечательно, на реальных данных всё пошло наперекосяк.
Когда стали копать, то выяснилось, что на тестовых снимках лица расположены по центру кадра. В результате нейронка "научилась" ставить прямоугольник в центр изображения
_____________________
С уважением,
Stanislav V. Zudin
Эта байка существует в куче вариантов. Наиболее распространённые:
1. Надо было по фотографиям кустов определять, сидит ли за ними кто-нибудь в засаде. Чтобы не гонять людей туда-сюда, сначала днём отсняли кучу фотографий с людьми, а потом вечером наснимали пустых кустов. Сеть подстроилась к освещению.
2. По записи шума в море надо было определять тип подводной лодки (атомная/не атомная). Записи звука двух типов делались на 2х разных магнитофонах. У одного был косяк — периодический неслышимый человеком щелчок. Сеть подстроилась к нему.
Философия простая: делаешь хреново и неправильно — получается ерунда. В любой деятельности так.
Здравствуйте, De-Bill, Вы писали:
DB>Эта байка существует в куче вариантов. Наиболее распространённые:
Одна контора, "делающая игру про танки", решила натренировать нейросетку на распознание принадлежности танка "немецкий-русский", однако в тестовом наборе то ли каждый тип танка смотрел в свою сторону, то ли небо у них было солнечное, а у нас — хмурое... В общем, байка гласит, что "тоже не вышло"
Здравствуйте, Lazytech, Вы писали:
L>В 1990-х годах в немецкой армии было решено внедрить систему распознавания образов, предназначенную для автоматического выявления танков на местности. Для обучения системы требовались фотографии, и к делу привлекли двух фотографов: один снимал местность с танками, а другой без них. Готовые фотографии разделили на два набора: данные для обучения и тестовые данные. Обученная система идеально распознала танки на тестовых фотографиях, однако провалила первое же полевое испытание, оказавшись абсолютно непригодной к практическому использованию. Когда начали разбираться, в чем дело, то выяснилось, что каждый фотограф делал снимки со своим значением диафрагмы. Эти значения немного отличались, и в процессе обучения система натренировалась не обнаруживать танки, а распознавать разные значения диафрагмы.
Нейронная сеть оперирует набором чисел: числа на входе, числа на выходе. Что эти числа означают — не её забота, в этом смысле сеть действительно слепой механизм. Интерпретировать эти числа — задача программы, которая использует нейронную сеть. Любо степень освещения объектов фото был одним из ключевых числовых параметров, либо байка.
Здравствуйте, Kerk, Вы писали:
K>Ну да, в принципе логично. Если сравнивается не контент, значит дело в каких-то параметрах фотографий. А там уже остается просто перебрать варианты.
Как по фотке определить значение диафрагмы? Молодёжь сейчас и понятия не имеет, что это такое.
«Национализм во мне столь естественный, что никогда никаким интернационалистам его из меня не вытравить»
Менделеев Д. И.
Здравствуйте, Vladek, Вы писали:
V>Нейронная сеть оперирует набором чисел: числа на входе, числа на выходе. Что эти числа означают — не её забота, в этом смысле сеть действительно слепой механизм. Интерпретировать эти числа — задача программы, которая использует нейронную сеть. Любо степень освещения объектов фото был одним из ключевых числовых параметров, либо байка.
Верно, просто в процессе обучения происходит автоматизированный поиск, какие параметры надо анализировать и с каким весом, чтобы на тестовом наборе получались ожидаемые ответы. Иногда "что-то идёт не так"
K>>Ну да, в принципе логично. Если сравнивается не контент, значит дело в каких-то параметрах фотографий. А там уже остается просто перебрать варианты. B>Как по фотке определить значение диафрагмы? Молодёжь сейчас и понятия не имеет, что это такое.
По ГРИП, очевидно же.
Как много веселых ребят, и все делают велосипед...
Здравствуйте, siberia2, Вы писали: S>Вполне возможно, что система упростила себе жизнь, выявляя по освещённости или по ранице освещённости снимки.
Участник обсуждения, рассказавший эту историю, объяснил произошедшее следующим образом.
При изменении установки диафрагмы меняется распределение резкости. В отличие от человека, алгоритм рассматривает не изображение в целом, а пиксели и окрестности пикселей. По сути, он «видит» не само изображение, а его Фурье-преобразование. Даже небольшие различия в значении диафрагмы дают очень заметную разницу в Фурье-преобразовании, поэтому алгоритм выделил отдельные группы изображений.
Часть комментария на английском
antialias_physorg
* 5 / 5 (1) May 26, 2018
A different fstop will change the sharpness distribution of the image. An algorithm doesn't look at an image "as a whole" — like humans do — but at pixels and pixel-neighborhoods. Effectively it's looking at the fourier transformed of the image more than the image istelf.Even slight variations in fstop will show up very noticeabyl (i.e. being able to be classified into distinct groups) in the fourier transformed data.
Здравствуйте, ononim, Вы писали:
B>>Как по фотке определить значение диафрагмы? O>По ГРИП, очевидно же.
Для этого надо знать ряд параметров аппаратуры. Просто по снимку — никак.
Возвращаясь к заглавной байке — не по "значению диафрагмы", а по "глубине резкости".
«Национализм во мне столь естественный, что никогда никаким интернационалистам его из меня не вытравить»
Менделеев Д. И.
Здравствуйте, Lazytech, Вы писали:
L>... Эти значения немного отличались, и в процессе обучения система натренировалась не обнаруживать танки, а распознавать разные значения диафрагмы.
Ну, определять по готовому снимку диафрагму — тож неплохо
Здравствуйте, biochemist, Вы писали:
B>Как по фотке определить значение диафрагмы? Молодёжь сейчас и понятия не имеет, что это такое.
По EXIF же .
--
И да, молодежь и раньше не имела понятия, что такое значение диафрагмы примерно в той же пропорции, что сейчас. Помню, когда давно учил фотографировать, говорил: ставьте диафрагму 5.6, а выдержку такую-то от освещения. Когда начинал втирать про глубину резкости, взгляд собеседника (и особенно собеседницы) часто мутнел. Ну, так вспоминается.
Помимо упомянутой глубины резкости там от диафрагмы зависит аберрация, дифракция, которые, думаю, вычисляются всякими фурье и чем там еще. Фотки же не просто скармливаются нейросети пачкой пикселов. Наверное, лапласом проезжают для выделения контуров, частотными анализами шурщат... Но я не спец, это так.