Я понимаю, что нейронные сети (НС) можно считать универсальными аппроксиматорами как для функций, так и для их производных, при определенных предположениях (как для сети, так и для функции, которую нужно аппроксимировать). На самом деле, я провел ряд тестов на простые, но нетривиальные функции (например, полиномы), и мне кажется, что я действительно могу хорошо аппроксимировать их и их первые производные (пример показан ниже).
Однако мне неясно, распространяются ли теоремы, которые приводят к вышеизложенному (или, возможно, могут быть расширены), на функционалы и их функциональные производные. Рассмотрим, например, функционал:
с функциональной производной:
где полностью и нетривиально зависит от . Может ли NN изучить приведенное выше отображение и его функциональную производную? Более конкретно, если кто-то дискретизирует область над и предоставляет (в дискретизированных точках) в качестве входных данных и
Я провел ряд тестов, и кажется, что NN действительно может в некоторой степени изучить отображение . Однако, хотя точность этого сопоставления в порядке, она невелика; и проблема в том, что вычисленная функциональная производная является полным мусором (хотя оба они могут быть связаны с проблемами с обучением и т. д.). Пример показан ниже.
Если NN не подходит для изучения функционала и его производной, есть ли другой метод машинного обучения?
Примеры:
(1) Ниже приведен пример аппроксимации функции и ее производной: NN обучен изучению функции в диапазоне [-3,2]: из которого можно получить разумное приближение для получается: обратите внимание, что, как и ожидалось, приближение NN к и его первой производной улучшается с увеличением количества обучающих точек, архитектуры NN, поскольку лучшие минимумы находятся во время обучения и т. д. ,
(2) Ниже приведен пример аппроксимации функционала и его функциональной производной: NN обучен изучению функционала . Обучающие данные были получены с использованием функций вида , где и были сгенерированы случайным образом. Следующий график иллюстрирует, что NN действительно способен достаточно хорошо аппроксимировать : однако, вычисленные функциональные производные являются полным мусором; пример (для конкретногоf ( x ) F [ f ( x ) ]) показано ниже: Как интересное примечание, NN-приближение к кажется, улучшается с увеличением количества тренировочных точек и т. д. (как в примере (1)), но функциональная производная этого не делает.