Этот пост был обновлен много. Вверху вы можете увидеть ссылку обновления. Ниже приведены варианты исходного ответа. Для краткости: успехи сверточных нейронных сетей и глубокого обучения выглядят как своего рода галилеевская революция. С практической точки зрения классическая обработка сигналов или компьютерное зрение мертвы ... при условии, что у вас достаточно помеченных данных, мало заботятся о явных ошибках классификации ( глубокие изъяны ), есть бесконечная энергия для запуска тестов, не думая об углеродном следе , и не беспокойтесь о рациональных объяснениях. Что касается других, это заставило нас переосмыслить все, что мы делали раньше: извлечение функций, оптимизация (см. Мою коллегу Ж.-К. Песке, работающую над структурами глубоких нейронных сетей, решающими вариационные неравенства), инвариантность, количественная оценка и т. д. Из этого вытекает действительно интересное исследование, которое, мы надеемся, догонит твердо обоснованные принципы и аналогичные показатели.
Обновленные ссылки:
Мы вводим естественные противоборствующие примеры - реальные, неизмененные и встречающиеся в природе примеры, которые приводят к значительному снижению точности классификатора. Мы курируем 7500 естественных состязательных примеров и выпускаем их в тестовом наборе классификаторов ImageNet, который мы называем ImageNet-A. Этот набор данных служит новым способом измерения надежности классификатора. Как и альтернативные примеры l_p, примеры ImageNet-A успешно переносятся в невидимые или черные ящики-классификаторы. Например, в ImageNet-A DenseNet-121 имеет точность около 2%, падение точности примерно на 90%. Восстановить эту точность непросто, потому что примеры ImageNet-A используют глубокие недостатки в существующих классификаторах, включая их чрезмерную зависимость от цвета, текстуры и фоновых сигналов. Мы наблюдаем, что популярные методы обучения для повышения устойчивости имеют небольшой эффект, но мы показываем, что некоторые архитектурные изменения могут повысить устойчивость к естественным состязательным примерам. Дальнейшие исследования необходимы, чтобы обеспечить надежное обобщение этого жесткого набора тестов ImageNet.
- 2019/05/03: глубокое обучение: последний рубеж для обработки сигналов и анализа временных рядов? «В этой статье я хочу показать несколько областей, где сигналы или временные ряды имеют жизненно важное значение»
- 2018/04/23: Я только что вернулся с ежегодной международной конференции по акустике, обработке речи и сигналов, ICASSP 2018 . Меня поразило количество статей, в некоторой степени опирающихся на глубокое обучение, глубокие сети и т. Д. Два мольба из четырех (Алекс Асеро и Янн ЛеКун) были посвящены такой теме. В то же время большинство исследователей, с которыми я встречался, шутили по этому поводу («Извините, мой плакат посвящен банкам фильтров, а не углубленному обучению», «Мне не нравится это, у меня есть небольшие наборы данных») намеревались получить 0,5% на грандиозные испытания и потерять интерес к моделированию физики или статистических априоров.
- 2018/01/14: Может ли глубокая сеть увидеть кошку? от "абстрактного кота" до "лучшего кота", перевернутого, нарисованного и т. д. и как-то удивительно, результаты на эскизах
- 2017/11/02: добавлены ссылки на рассеивающие преобразования / сети
- 2017/10/21: Обзор сверточных нейронных сетей для обратных задач в изображении
- Глубокое обучение и его приложения к обработке сигналов и информации , журнал IEEE Signal Processing, январь 2011 г.
Глубокие справочные материалы «шагая» по стандартной обработке сигналов / изображений можно найти внизу. Майкл Элад только что написал « Глубокая, глубокая проблема: влияние глубокого обучения на обработку изображений, математику и человечество» (SIAM News, 2017/05), выдержка:
Затем нейронные сети внезапно вернулись и с удвоенной силой.
Эта трибуна представляет интерес, поскольку демонстрирует переход от традиционной «обработки изображений», пытаясь смоделировать / понять данные, к области правильности без особого понимания.
Этот домен развивается довольно быстро. Это не означает, что оно развивается в каком-то преднамеренном или постоянном направлении. Ни правильно, ни неправильно. Но сегодня утром я услышал следующее высказывание (или это шутка?):
плохой алгоритм с огромным набором данных можно сделать лучше , чем умный алгоритм с pauce данных.
Это была моя очень короткая попытка: глубокое обучение может дать самые современные результаты, но не всегда понятно, почему , и часть нашей работы ученого остается в объяснении, почему что-то работает, каково содержание фрагмента данных , и т.д.
Глубокое обучение требует (огромных) хорошо помеченных баз данных. Каждый раз, когда вы выполняете ручную работу над одиночными или единичными изображениями (т.е. без огромной базы данных), особенно в местах, где вряд ли получатся «бесплатные помеченные изображениями пользователей» (в дополнительном наборе из набора « забавные кошки, играющие в игры и лица ») Вы можете придерживаться традиционной обработки изображений на некоторое время и для получения прибыли. Недавно твит резюмирует , что:
(много) помеченных данных (без пропущенных переменных) является условием прерывания сделки (и не нужно) для многих доменов
Если их убивают (в чем я сомневаюсь в кратчайшие сроки), они еще не мертвы. Поэтому любые навыки, которые вы приобретете в обработке сигналов, анализе изображений, компьютерном зрении, помогут вам в будущем. Это, например, обсуждается в блоге: мы забыли о геометрии в компьютерном зрении? Алекс Кендалл:
Глубокое обучение революционизировало компьютерное зрение. Сегодня не так много проблем, в которых наилучшее решение не основано на сквозной модели глубокого обучения. В частности, популярны сверточные нейронные сети, поскольку они, как правило, работают достаточно хорошо из коробки. Тем не менее, эти модели в основном большие черные ящики. Есть много вещей, которые мы не понимаем о них.
Конкретным примером может быть следующее: пара очень темных (например, видеонаблюдения) изображений из одного и того же места, для которых необходимо оценить, содержит ли одно из них конкретное изменение, которое должно быть обнаружено, потенциально является вопросом традиционной обработки изображений, более чем Глубокое обучение (на сегодняшний день).
С другой стороны, столь же успешный, как и глубокое обучение в больших масштабах, это может привести к неправильной классификации небольших наборов данных, что может быть безвредным «в среднем» для некоторых приложений. Два изображения, которые немного отличаются от человеческого глаза, могут быть классифицированы по-разному с помощью DL. Или случайные изображения могут быть установлены для определенного класса. См., Например, Глубокие нейронные сети легко обмануть: высоконадежные прогнозы для неузнаваемых изображений (Нгуен А., Йосински Дж., Клюн Дж. Proc. Computer Vision и Pattern Recognition 2015), или у глубокого обучения есть глубокие недостатки? На состязательных негативах:
Сеть может неправильно классифицировать изображение после того, как исследователи применили некоторое незаметное возмущение. Возмущения находят путем корректировки значений пикселей, чтобы максимизировать ошибку прогнозирования.
При всем уважении к «глубокому обучению», подумайте о «массовом производстве, отвечающем зарегистрированному, известному, пригодному для массового использования или ожидаемому поведению», а не «единственном произведении искусства». Ни один не лучше (пока) в единой шкале индекса. Оба, возможно, должны сосуществовать некоторое время.
Тем не менее, глубокое обучение проникает во многие новые области, как описано в ссылках ниже.
К счастью, некоторые люди пытаются найти математическое обоснование глубокого обучения, примером которого являются рассеивающие сети или преобразования, предложенные Стефаном Маллатом и соавторами, см. Сайт ENS для рассеяния . Гармонический анализ и нелинейные операторы, функции Липшица, инвариантность перемещения / вращения, лучше для среднего человека, обрабатывающего сигнал. См. Например, Понимание Глубоких Сверточных Сетей .