Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析

上傳人:冷*** 文檔編號(hào):19223981 上傳時(shí)間:2021-01-08 格式:DOCX 頁數(shù):2 大小:12.95KB
收藏 版權(quán)申訴 舉報(bào) 下載
Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析_第1頁
第1頁 / 共2頁
Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析_第2頁
第2頁 / 共2頁

最后一頁預(yù)覽完了!喜歡就下載吧,查找使用更方便

18 積分

下載資源

資源描述:

《Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析》由會(huì)員分享,可在線閱讀,更多相關(guān)《Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析(2頁珍藏版)》請?jiān)谘b配圖網(wǎng)上搜索。

1、Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析 目的: 探討Logitboost和累積比數(shù)Logit模型這兩種方法應(yīng)用于判別分析的優(yōu)缺點(diǎn)。 方法: 簡要介紹Logitboost和累積比數(shù)Logit模型的原理,并采用此兩種方法分別對同一個(gè)實(shí)例進(jìn)行判別分析。結(jié)果: 兩種方法的判別正確率均較高。Logitboost判別效果高于累積比數(shù)Logit模型判別。討論: 在迭代輪數(shù)適當(dāng)?shù)那闆r下,Logitboost判別正確率更高,受迭代次數(shù)影響較大;而累積比數(shù)Logit模型的穩(wěn)定性較強(qiáng)。在對事件進(jìn)行判別時(shí),可根據(jù)數(shù)據(jù)資料的具體特點(diǎn)選用判別方法,也可將兩種方法結(jié)合應(yīng)用,取其判別效果較好者。

2、累積比數(shù)Logit模型 判別分析 Logitboost 睡眠質(zhì)量Logitboost and Cumulative Odds Logit Model and Their Application in Discriminant Analysis AbstractObjective: To compare Logitboost with Cumulative odds logit model, and discuss their characteristics when they are used in Discriminant analysis. Methods: The ultimate pr

3、inciple of Logitboost and Cumulative odds logit model will be introduced in this paper, and we will use the two methods to solve the same problem. Results Logitboosts effect is better than Cumulative odds logit model. Conclusion: The effect of Logitboost would be better if a appropriate iteration is

4、 given, in other words, Logitboost is affected by iteration in large measure. But Cumulative odds logit model is stable. We should choose the better according the data.Key wordscumulative odds Logit model;discriminant analysis;Logitboost; sleep quality判別分析(discriminant analysis)是判別樣品所屬類型的一類統(tǒng)計(jì)方法,其應(yīng)用之

5、廣可與回歸分析相媲美。進(jìn)行判別時(shí),通常是根據(jù)已經(jīng)掌握的一批分類明確的樣品建立判別函數(shù)。從判別準(zhǔn)則上分為Fisher判別和Bayes判別,但由于這兩種傳統(tǒng)的判別方法各有利弊,對資料有特定要求,如Fisher判別要求資料服從多元正態(tài)分布,Bayes判別要求已知先驗(yàn)概率,當(dāng)不滿足條件時(shí),判別效果往往不理想,給人們的實(shí)際工作帶來許多困難。本研究以一個(gè)實(shí)例簡介Logitboost法和累積比數(shù)Logit模型在判別分析中的應(yīng)用。1原理1.1累積比數(shù)Logit模型判別累積比數(shù)Logit模型是二分類Logit模型的擴(kuò)展,主要用于處理反應(yīng)變量為有序分類變量的資料。該模型對資料要求不嚴(yán),解釋變量既可以是連續(xù)型變量,

6、也可以是無序分類變量或有序分類變量1。只要資料滿足比例優(yōu)勢假定條件(proportional odds assumption),即自變量的回歸系數(shù)與分割點(diǎn)無關(guān),且各自變量與LogitP呈線性關(guān)系,即可應(yīng)用此方法。設(shè)應(yīng)變量Y為K個(gè)等級的有序變量,第k(k=1,2,K)個(gè)等級的概率分別為1,2,k,且ki=1k=1。影響因素xT=(x1,x2,xP)為自變量,xi(i=1,2,p)可以是連續(xù)變量、無序或有序分類變量。則累積比數(shù)Logit模型可以表示為:logit(P(yk|x)=ln(P(yk|x)1-P(yk|x)=-k+pi=1ixi(k=1,2,K-1)等價(jià)于:P(yk|x)=11+e(-k

7、+pi=1ixi)每類結(jié)果的概率:P(y=k|x)=P(yk|x)-P(yk-1|x)=11+e(-k+pi=1ixi)-11+e(-k-1+pi=1ixi) k=1,2, K式中,k和i為待估參數(shù)。該模型實(shí)際上是將K個(gè)等級人為地分成1,k 和k+1,K兩類,在這兩類基礎(chǔ)上定義的Logit P表示屬于前k個(gè)等級的累積概率與后K-k個(gè)等級的累積概率的比數(shù)之對數(shù)。故該模型稱為累積比數(shù)模型。對于K類反應(yīng)變量,K-1個(gè)累積Logit模型各有一個(gè)不同的k估計(jì),而對于xi,K-1個(gè)模型的系數(shù)i均相同2。1.2Logitboost判別Boosting是由Schzpire于1990年首先提出3,后經(jīng)Freud

8、和Schapire改進(jìn)的一種機(jī)器學(xué)習(xí)方法。Frieman、Hastie、Tibshirani于2000年又進(jìn)一步改進(jìn),稱為Logitboost,屬于提升算法的一種。其基本思想是:基于現(xiàn)有樣本數(shù)據(jù)集構(gòu)建一個(gè)基礎(chǔ)的“弱分類器”,反復(fù)調(diào)用該“弱分類器”,通過對每輪中錯(cuò)判的樣本賦予更大的權(quán)重,使其更關(guān)注那些難判的樣本,經(jīng)過多輪循環(huán),最后采用加權(quán)的方法將各輪的“弱分類器”合成“強(qiáng)分類器”,從而得到較高精度的預(yù)測模型4。其算法如下:首先給定一個(gè)樣本集:(xi1,xiN,yi),yiY=-1,+1表示不同的類。賦予每一個(gè)樣品相同的權(quán)重,選定一種基礎(chǔ)分類器,根據(jù)該權(quán)重建立預(yù)測模型,回代樣本,其中錯(cuò)判的樣本的權(quán)重在下一輪將被提升。迭代T輪后得出最終分類器F(x):F(xi)=Tt=1F(t)(xi) 式中,t(1,T)為迭代輪數(shù),f(x)表示弱分類器的函數(shù)形式,可以是Logit函數(shù)、決策樹等,根據(jù)F(xi)的正負(fù)對第i個(gè)樣品進(jìn)行判別歸類。

展開閱讀全文
溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

相關(guān)資源

更多
正為您匹配相似的精品文檔
關(guān)于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權(quán)所有   聯(lián)系電話:18123376007

備案號(hào):ICP2024067431號(hào)-1 川公網(wǎng)安備51140202000466號(hào)


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務(wù)平臺(tái),本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對上載內(nèi)容本身不做任何修改或編輯。若文檔所含內(nèi)容侵犯了您的版權(quán)或隱私,請立即通知裝配圖網(wǎng),我們立即給予刪除!