Я читал некоторые статьи о ручном создании изображений, чтобы «обмануть» нейронную сеть (см. Ниже).
Это потому, что сети моделируют только условную вероятность ?
Если сеть может смоделировать общую вероятность p ( y , x ) , будут ли такие случаи происходить?
Я предполагаю, что такие искусственно сгенерированные изображения отличаются от обучающих данных, поэтому они имеют низкую вероятность . Следовательно, p ( y , x ) должно быть низким, даже если p ( y | x ) может быть высоким для таких изображений.
Обновить
Я пробовал некоторые генеративные модели, они оказались бесполезными, так что, наверное, это следствие MLE?
Я имею в виду, что в случае, когда в качестве функции потерь используется дивергенция KL, значение где p d a t a ( x ) мало, не влияет на потери. Таким образом, для надуманного изображения, которое не соответствует p d a t a , значение p θ может быть произвольным.
Обновить
Я нашел блог Андрея Карпати, который показывает
Эти результаты не относятся к изображениям, ConvNets, и они также не являются «недостатком» в Deep Learning.
ОБЪЯСНЕНИЕ И ПРИМЕНЕНИЕ ОБОБЩЕННЫХ ПРИМЕРОВ Глубокие нейронные сети легко одурачить: высоконадежные прогнозы для неузнаваемых изображений