В реализации Word2Vec есть iter
параметрgensim
класс gensim.models.word2vec.Word2Vec (предложения = нет, размер = 100, альфа = 0,025, окно = 5, min_count = 5, max_vocab_size = нет, образец = 0, семя = 1, рабочие = 1, min_alpha = 0,0001, сг. = 1, hs = 1, отрицательный = 0, cbow_mean = 0, hashfxn =, iter = 1 , null_word = 0, trim_rule = нет, sorted_vocab = 1)
который определяет количество эпох, то есть:
iter = количество итераций (эпох) по корпусу.
Кто-нибудь знает, помогает ли это в улучшении модели по сравнению с корпусом?
Есть ли какая-либо причина, почему iter
по умолчанию установлено значение 1? Нет ли большого эффекта в увеличении нет. эпох?
Есть ли научная / эмпирическая оценка того, как установить нет. эпох?
В отличие от задачи классификации / регрессии, метод поиска по сетке на самом деле не сработает, поскольку векторы генерируются неконтролируемым образом, а целевая функция - просто с помощью иерархической софтмакс или отрицательной выборки.
Есть ли механизм ранней остановки, чтобы прервать нет? эпох когда векторы сходятся? И может ли иерархический софтмакс или отрицательная цель выборки сходиться?