Да, вы можете, и на самом деле это именно то, что делает пакет R GLMNET для полиномиальной логистической регрессии. Запись функции правдоподобия в виде:
LogL=∑i∑cniclog(pic)
Где обозначает наблюдения, а обозначает полиномиальные категории, - это наблюдаемый счет для наблюдения в категории . Наблюдения определяются их уникальными ковариатными комбинациями - или, в качестве альтернативы, мы можем разрешить дубликаты и установить каждое чтобы у нас были категориальные «двоичные» данные (.... не знаю, что такое множественное число двоичных файлов). ...). Для логистической регрессии вероятности определяются как:c n i c i c n i c = 1icnicicnic=1
pic=exp(xTiβc)∑c′exp(xTiβc′)
Это менее чем полная ранговая параметризация и может быть полезна, если вы используете наказуемое правдоподобие (например, GLMNET). В принципе, мы можем использовать IRLS / Newton Rhapson в полной бета-матрице , однако в итоге вы получите недиагональные весовые матрицы. В качестве альтернативы мы можем оптимизировать «стиль Гиббса», исправляя все категории бета-версий, кроме одной, а затем оптимизируя только эту категорию. Затем перейдите к следующей категории и так далее. Вы можете видеть это, потому что вероятности имеют вид(β1,…,βC)
pic′=B
pic=exp(xTiβc)exp(xTiβc)+A where ∂A∂βc=0
pic′=Bexp(xTiβc)+A where ∂B∂βc=0
Что квадратичное расширение для будет иметь ту же форму, что и для логистической регрессии, но с весами IRLS, рассчитанными по-другому - хотя у нас все еще есть в обычном обновлении беты.βcWii,c=nicpic(1−pic)(XTWX)−1XTWY