Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析
-
資源ID:19223981
資源大?。?span id="aesyzxl" class="font-tahoma">12.95KB
全文頁數(shù):2頁
- 資源格式: DOCX
下載積分:18積分
快捷下載
會員登錄下載
微信登錄下載
微信掃一掃登錄
友情提示
2、PDF文件下載后,可能會被瀏覽器默認(rèn)打開,此種情況可以點(diǎn)擊瀏覽器菜單,保存網(wǎng)頁到桌面,就可以正常下載了。
3、本站不支持迅雷下載,請使用電腦自帶的IE瀏覽器,或者360瀏覽器、谷歌瀏覽器下載即可。
4、本站資源下載后的文檔和圖紙-無水印,預(yù)覽文檔經(jīng)過壓縮,下載后原文更清晰。
5、試題試卷類文檔,如果標(biāo)題沒有明確說明有答案則都視為沒有答案,請知曉。
|
Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析
Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析 目的: 探討Logitboost和累積比數(shù)Logit模型這兩種方法應(yīng)用于判別分析的優(yōu)缺點(diǎn)。 方法: 簡要介紹Logitboost和累積比數(shù)Logit模型的原理,并采用此兩種方法分別對同一個實(shí)例進(jìn)行判別分析。結(jié)果: 兩種方法的判別正確率均較高。Logitboost判別效果高于累積比數(shù)Logit模型判別。討論: 在迭代輪數(shù)適當(dāng)?shù)那闆r下,Logitboost判別正確率更高,受迭代次數(shù)影響較大;而累積比數(shù)Logit模型的穩(wěn)定性較強(qiáng)。在對事件進(jìn)行判別時,可根據(jù)數(shù)據(jù)資料的具體特點(diǎn)選用判別方法,也可將兩種方法結(jié)合應(yīng)用,取其判別效果較好者。累積比數(shù)Logit模型 判別分析 Logitboost 睡眠質(zhì)量Logitboost and Cumulative Odds Logit Model and Their Application in Discriminant Analysis AbstractObjective: To compare Logitboost with Cumulative odds logit model, and discuss their characteristics when they are used in Discriminant analysis. Methods: The ultimate principle of Logitboost and Cumulative odds logit model will be introduced in this paper, and we will use the two methods to solve the same problem. Results Logitboosts effect is better than Cumulative odds logit model. Conclusion: The effect of Logitboost would be better if a appropriate iteration is given, in other words, Logitboost is affected by iteration in large measure. But Cumulative odds logit model is stable. We should choose the better according the data.Key wordscumulative odds Logit model;discriminant analysis;Logitboost; sleep quality判別分析(discriminant analysis)是判別樣品所屬類型的一類統(tǒng)計(jì)方法,其應(yīng)用之廣可與回歸分析相媲美。進(jìn)行判別時,通常是根據(jù)已經(jīng)掌握的一批分類明確的樣品建立判別函數(shù)。從判別準(zhǔn)則上分為Fisher判別和Bayes判別,但由于這兩種傳統(tǒng)的判別方法各有利弊,對資料有特定要求,如Fisher判別要求資料服從多元正態(tài)分布,Bayes判別要求已知先驗(yàn)概率,當(dāng)不滿足條件時,判別效果往往不理想,給人們的實(shí)際工作帶來許多困難。本研究以一個實(shí)例簡介Logitboost法和累積比數(shù)Logit模型在判別分析中的應(yīng)用。1原理1.1累積比數(shù)Logit模型判別累積比數(shù)Logit模型是二分類Logit模型的擴(kuò)展,主要用于處理反應(yīng)變量為有序分類變量的資料。該模型對資料要求不嚴(yán),解釋變量既可以是連續(xù)型變量,也可以是無序分類變量或有序分類變量1。只要資料滿足比例優(yōu)勢假定條件(proportional odds assumption),即自變量的回歸系數(shù)與分割點(diǎn)無關(guān),且各自變量與LogitP呈線性關(guān)系,即可應(yīng)用此方法。設(shè)應(yīng)變量Y為K個等級的有序變量,第k(k=1,2,K)個等級的概率分別為1,2,k,且ki=1k=1。影響因素xT=(x1,x2,xP)為自變量,xi(i=1,2,p)可以是連續(xù)變量、無序或有序分類變量。則累積比數(shù)Logit模型可以表示為:logit(P(y>k|x)=ln(P(y>k|x)1-P(y>k|x)=-k+pi=1ixi(k=1,2,K-1)等價(jià)于:P(yk|x)=11+e(-k+pi=1ixi)每類結(jié)果的概率:P(y=k|x)=P(yk|x)-P(yk-1|x)=11+e(-k+pi=1ixi)-11+e(-k-1+pi=1ixi) k=1,2, K式中,k和i為待估參數(shù)。該模型實(shí)際上是將K個等級人為地分成1,k 和k+1,K兩類,在這兩類基礎(chǔ)上定義的Logit P表示屬于前k個等級的累積概率與后K-k個等級的累積概率的比數(shù)之對數(shù)。故該模型稱為累積比數(shù)模型。對于K類反應(yīng)變量,K-1個累積Logit模型各有一個不同的k估計(jì),而對于xi,K-1個模型的系數(shù)i均相同2。1.2Logitboost判別Boosting是由Schzpire于1990年首先提出3,后經(jīng)Freud和Schapire改進(jìn)的一種機(jī)器學(xué)習(xí)方法。Frieman、Hastie、Tibshirani于2000年又進(jìn)一步改進(jìn),稱為Logitboost,屬于提升算法的一種。其基本思想是:基于現(xiàn)有樣本數(shù)據(jù)集構(gòu)建一個基礎(chǔ)的“弱分類器”,反復(fù)調(diào)用該“弱分類器”,通過對每輪中錯判的樣本賦予更大的權(quán)重,使其更關(guān)注那些難判的樣本,經(jīng)過多輪循環(huán),最后采用加權(quán)的方法將各輪的“弱分類器”合成“強(qiáng)分類器”,從而得到較高精度的預(yù)測模型4。其算法如下:首先給定一個樣本集:(xi1,xiN,yi),yiY=-1,+1表示不同的類。賦予每一個樣品相同的權(quán)重,選定一種基礎(chǔ)分類器,根據(jù)該權(quán)重建立預(yù)測模型,回代樣本,其中錯判的樣本的權(quán)重在下一輪將被提升。迭代T輪后得出最終分類器F(x):F(xi)=Tt=1F(t)(xi) 式中,t(1,T)為迭代輪數(shù),f(x)表示弱分類器的函數(shù)形式,可以是Logit函數(shù)、決策樹等,根據(jù)F(xi)的正負(fù)對第i個樣品進(jìn)行判別歸類。