Для целей анализа данных вы можете эффективно рассматривать их как массивы, возможно многомерные. Таким образом, они включают в себя скаляры, векторы, матрицы и все массивы более высокого порядка.
Точное математическое определение является более сложным. По сути, идея заключается в том, что тензоры преобразуют полилинейные функции в линейные функции. Смотрите (1) или (2) . (Мультилинейные функции - это функции, которые являются линейными в каждом из их компонентов, примером является детерминант, рассматриваемый как функция векторов столбцов.)
Одним из следствий этого математического свойства, определяющего тензоры, является то, что тензоры хорошо преобразуются по отношению к якобианам, которые кодируют преобразования из одной системы координат в другую. Вот почему в физике часто определяют определение тензора как «объект, который определенным образом трансформируется при изменении координат». Смотрите это видео, например, или это .
Если мы имеем дело с достаточно «хорошими» объектами (все производные, которые мы хотели бы существовать и четко определены), то все эти способы мышления о тензорах по существу эквивалентны. Обратите внимание, что первый способ думать о тензорах, которые я упомянул (многомерные массивы), игнорирует различие между ковариантными и контравариантными тензорами. (Различие заключается в том, как их коэффициенты изменяются при изменении базиса базового векторного пространства, то есть, по существу, между векторами строк и столбцов.) См. Эти другие вопросы StackExchange: (1) (2) (3) (4)
Для книги, используемой исследователями, изучающими применение тензоров в нейронных сетях (например, в Технионе в Израиле), есть Тензорные пространства Вольфганга Хакбуша и Численное исчисление . Я сам еще не читал его, хотя некоторые из последующих глав, кажется, используют продвинутую математику.