Мы анализируем скип-грамму с отрицательной выборкой (SGNS), метод вложения слов, введенный Миколовым и др., И показываем, что он неявно факторизует матрицу слова-контекста, ячейки которой являются точечной взаимной информацией (PMI) соответствующего пары слова и контекста, сдвинутые на глобальную константу. Мы находим, что другой метод внедрения, NCE, неявно разлагает подобную матрицу, где каждая ячейка представляет собой (сдвинутую) логическую условную вероятность слова, учитывая его контекст. Мы показываем, что использование разреженной матрицы контекста с положительным PMI для представления слов улучшает результаты для двух задач по сходству слов и одной из двух задач по аналогии. Когда предпочтительны плотные низкоразмерные векторы, точная факторизация с помощью SVD позволяет получить решения, которые, по крайней мере, так же хороши, как решения SGNS для задач схожести слов. По вопросам аналогии СГНС остается выше, чем СВД. Мы предполагаем, что это связано с взвешенным характером факторизации SGNS.