Статистика и большие данные

Вопросы и ответы для людей, интересующихся статистикой, машинным обучением, анализом данных, интеллектуальным анализом данных и визуализацией данных

2
Когда t-SNE вводит в заблуждение?
Цитата одного из авторов: t-распределенное стохастическое вложение соседей (t-SNE) - это ( выигрышный ) метод уменьшения размерности, который особенно хорошо подходит для визуализации многомерных наборов данных. Это звучит довольно здорово, но об этом говорит автор. Еще одна цитата автора (относительно вышеупомянутого конкурса): Что вы отобрали у этого конкурса? Всегда сначала …

7
Почему регуляризация не устраняет голод данных в Deep Neural Nets?
Проблема, с которой я часто сталкивался в контексте нейронных сетей в целом и глубоких нейронных сетей в частности, заключается в том, что они «жаждут данных» - то есть они плохо работают, если у нас нет большого набора данных с помощью которого тренируется сеть. Насколько я понимаю, это связано с тем, …

3
Имеет ли значение знак оценок или нагрузок в PCA или FA? Могу ли я поменять знак?
Я выполнил анализ основных компонентов (PCA) с помощью R, используя две разные функции ( prcompи princomp), и заметил, что оценки PCA отличаются по знаку. Как это может быть? Учти это: set.seed(999) prcomp(data.frame(1:10,rnorm(10)))$x PC1 PC2 [1,] -4.508620 -0.2567655 [2,] -3.373772 -1.1369417 [3,] -2.679669 1.0903445 [4,] -1.615837 0.7108631 [5,] -0.548879 0.3093389 [6,] …
37 r  pca  factor-analysis 

4
Разница между прогнозом и прогнозом?
Мне было интересно, какая разница и связь между прогнозом и прогнозом? Особенно во временных рядах и регрессии? Например, правильно ли я это: Во временных рядах прогнозирование, по-видимому, означает оценку будущих значений с учетом прошлых значений временного ряда. В регрессии предсказание, по-видимому, означает оценку значения, будь то будущее, текущее или прошлое …

3
Бутстреп против проверки гипотезы о перестановке
Существует несколько популярных методов передискретизации, которые часто используются на практике, такие как начальная загрузка, тест перестановки, складной нож и т. Д. Об этих методах рассказывается множество статей и книг, например, Philip I Good (2010) Permutation, Parametric и Bootstrap Tests гипотез Мой вопрос заключается в том, какая техника повторной выборки приобрела …

2
Понимание параметров внутри отрицательного биномиального распределения
Я пытался соответствовать моим данным в различные модели и выяснил , что fitdistrфункция из библиотеки MASSиз Rдает мне , Negative Binomialкак наиболее подходящее. Теперь со страницы вики определение дается как: Распределение NegBin (r, p) описывает вероятность k неудач и r успехов в k + r испытаниях Бернулли (p) с успехом …

5
Перекрестный анализ временных рядов
Я использовал пакет caret в R для построения прогностических моделей для классификации и регрессии. Caret предоставляет унифицированный интерфейс для настройки гиперпараметров модели путем перекрестной проверки или привязки загрузки. Например, если вы строите простую модель «ближайших соседей» для классификации, сколько соседей вы должны использовать? 2? 10? 100? Caret помогает вам ответить …

2
Если интерес представляет только прогноз, зачем использовать лассо над хребтом?
На странице 223 «Введение в статистическое обучение» авторы суммируют различия между регрессией гребня и лассо. Они предоставляют пример (рис. 6.9) того, когда «лассо имеет тенденцию превосходить регрессию гребня с точки зрения смещения, дисперсии и MSE». Я понимаю, почему лассо может быть желательным: это приводит к разреженным решениям, поскольку сокращает многие …

4
Что мне делать, если моя нейронная сеть плохо обобщается?
Я тренирую нейронную сеть, и потери на обучение уменьшаются, но потери на валидацию не уменьшаются или уменьшаются намного меньше, чем я ожидал, основываясь на ссылках или экспериментах с очень похожими архитектурами и данными. Как я могу это исправить? Что касается вопроса Что мне делать, если моя нейронная сеть не учится? …

8
В чем разница между предсказанием и выводом?
Я читаю « Введение в статистическое обучение ». В главе 2 они обсуждают причину оценки функции .еff 2.1.1 Зачем оценивать ?еff Есть две основные причины, по которым мы можем захотеть оценить f : прогноз и умозаключение . Мы обсуждаем каждый по очереди. Я читал это несколько раз, но мне все …


1
Почему тест Мантеля предпочтительнее теста Морана I?
Тест Мантеля широко используется в биологических исследованиях для изучения корреляции между пространственным распределением животных (положение в пространстве), например, с их генетическим родством, скоростью агрессии или каким-либо другим атрибутом. Множество хороших журналов используют его ( PNAS, Поведение животных, Молекулярная экология ... ). Я изготовил некоторые паттерны, которые могут встречаться в природе, …

1
Что легко интерпретировать, добротность мер соответствия для линейных моделей со смешанными эффектами?
Я в настоящее время использую пакет R lme4 . Я использую линейные модели смешанных эффектов со случайными эффектами: library(lme4) mod1 <- lmer(r1 ~ (1 | site), data = sample_set) #Only random effects mod2 <- lmer(r1 ~ p1 + (1 | site), data = sample_set) #One fixed effect + # random …

1
Вариационный вывод по сравнению с MCMC: когда выбрать один из других?
Я думаю, что я получил общее представление о VI и MCMC, включая различные разновидности MCMC, такие как выборка Гиббса, Metropolis Hastings и т. Д. Эта статья представляет собой прекрасное изложение обоих методов. У меня есть следующие вопросы: Если я хочу сделать байесовский вывод, почему я выбрал бы один метод вместо …

2
Кто изобрел стохастический градиентный спуск?
Я пытаюсь понять историю градиентного спуска и стохастического градиентного спуска . Градиентный спуск был изобретен в Коши в 1847 году. Общий метод решения проблем симуляций . С. 536–538. Подробнее об этом см. здесь . С тех пор методы градиентного спуска продолжали развиваться, и я не знаком с их историей. В …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.