Подготовка базового марковского случайного поля для классификации пикселей на изображении


16

Я пытаюсь научиться использовать случайные поля Маркова для сегментирования областей на изображении. Я не понимаю некоторые параметры в MRF или почему максимизация ожидания, которую я выполняю, иногда не сходится к решению.

Исходя из теоремы Байеса, я имею , где y - значение серой шкалы пикселя, а x - метка класса. Я решил использовать гауссово распределение для p ( y | x ) , в то время как p ( x ) моделируется с использованием MRF.p(x|y)=p(y|x)p(x)/p(y)yxp(y|x)p(x)

Я использую потенциальную функцию для MRF, которая имеет как парные потенциалы клика, так и потенциальное значение для метки класса классифицируемого пикселя. Значение потенциала одного пикселя - это некоторая постоянная которая зависит от метки класса x . Парные потенциальные функции оцениваются для 4-соединенных соседей и возвращают положительное значение β, если сосед имеет ту же метку класса, что и этот пиксель, и - β, если метки отличаются.αxββ

В момент максимизации ожидания, где я должен найти значения и β, которые максимизируют ожидаемое значение логарифмической вероятности, я использовал метод численной оптимизации (пробный градиент сопряжения, BFGS, метод Пауэлла), но всегда обнаружите, что значение β станет отрицательным, αs резко возрастет, и через одну или две итерации все изображение будет присвоено только одной метке (фон: присвоение меток класса с учетом параметров MRF было выполнено с использованием ICM). Если бы я удалил альфы, то есть только используя парные клик-потенциалы, то максимизация ожидания работала бы просто отлично.α(x)ββα

Пожалуйста, объясните, какова цель альф для каждого класса? Я думал, что они будут связаны с количеством этого класса, который присутствует на изображении, но это не так. Как только я получил MRF, работающий только с парными потенциалами, я сравнил его с прямой моделью гауссовой смеси и обнаружил, что они дают почти идентичные результаты. Я ожидал, что парные потенциалы немного сгладят классы, но этого не произошло. Пожалуйста, сообщите, где я ошибся.


Просто любопытно, почему вы выбрали модель ненаправленного графа?

В моем приложении серая шкала значений количества пикселей и соседних пикселей с большей вероятностью будет иметь одинаковую метку класса, но нет никаких причин использовать разные бета-версии для каждой попарной клики. Надеюсь, я правильно понял ваш вопрос.
чипсы

1
Постоянные альфы, кажется, служат цели моделирования предыдущего распределения на этикетках. Как вы и предполагали, правильные альфы могли бы наложить те метки, которые встречаются чаще в обучающем наборе. Если ваша модель хорошо работает без них, почему бы вам просто не выбросить их из модели? Ваше описание не достаточно многословно, чтобы ответить, почему альфы будут расти и портить все, но вам, вероятно, нужна регуляризация. Попробуйте добавить в модель гауссовский априорный альфа, то есть добавьте к логарифмическому посту, это, вероятно, предотвратит переоснащение. λα2
Роман Шаповалов

Что неясно из вашего вопроса: 1) Разбивается ли ваша вероятность p (y | x) по пикселям, поэтому вы используете 1D гауссиан для каждого? 2) Какую именно цель вы оптимизируете в EM (вы упомянули логарифмическую вероятность, но вы ранее использовали MRF для моделирования)? 3) Определяете ли вы потенциалы в логарифмической области? Означает ли увеличение бета увеличение P (x) или энергии, которая является -log P (x), или отрицательной энергии? 4) Удалось ли вам на самом деле уменьшить цель EM, установив такие вырожденные альфы, или оптимизация не удалась?
Роман Шаповалов

Как насчет зацикленного распространения убеждений?
wolfsatthedoor

Ответы:


1

диагностика

Это звучит как проблема инициализации.

Используемая вами модель MRF не является выпуклой и поэтому имеет несколько локальных минимумов. Насколько я знаю, все существующие методы оптимизации чувствительны к инициализации, а это означает, что качество конечного решения сильно зависит от того, откуда вы начинаете процедуру оптимизации.

Предлагаемое решение

Я предлагаю попробовать разные стратегии для инициализации модели. Например, одна стратегия, которая приходит мне в голову, заключается в следующем:

  1. p(y|x) p(x)α=β=0 p(x)α

  2. αβ

Предлагаемая инициализация ни в коем случае не является лучшим способом инициализации вашей оптимизации, а скорее всего лишь одним из возможных вариантов.

λα||α||2+λβ||β||2λαλβ

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.