歡迎來到裝配圖網(wǎng)! | 幫助中心 裝配圖網(wǎng)zhuangpeitu.com!
裝配圖網(wǎng)
ImageVerifierCode 換一換
首頁 裝配圖網(wǎng) > 資源分類 > DOCX文檔下載  

Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析

  • 資源ID:19223981       資源大?。?span id="aesyzxl" class="font-tahoma">12.95KB        全文頁數(shù):2頁
  • 資源格式: DOCX        下載積分:18積分
快捷下載 游客一鍵下載
會員登錄下載
微信登錄下載
三方登錄下載: 微信開放平臺登錄 支付寶登錄   QQ登錄   微博登錄  
二維碼
微信掃一掃登錄
下載資源需要18積分
郵箱/手機(jī):
溫馨提示:
用戶名和密碼都是您填寫的郵箱或者手機(jī)號,方便查詢和重復(fù)下載(系統(tǒng)自動生成)
支付方式: 支付寶    微信支付   
驗(yàn)證碼:   換一換

 
賬號:
密碼:
驗(yàn)證碼:   換一換
  忘記密碼?
    
友情提示
2、PDF文件下載后,可能會被瀏覽器默認(rèn)打開,此種情況可以點(diǎn)擊瀏覽器菜單,保存網(wǎng)頁到桌面,就可以正常下載了。
3、本站不支持迅雷下載,請使用電腦自帶的IE瀏覽器,或者360瀏覽器、谷歌瀏覽器下載即可。
4、本站資源下載后的文檔和圖紙-無水印,預(yù)覽文檔經(jīng)過壓縮,下載后原文更清晰。
5、試題試卷類文檔,如果標(biāo)題沒有明確說明有答案則都視為沒有答案,請知曉。

Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析

Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析 目的: 探討Logitboost和累積比數(shù)Logit模型這兩種方法應(yīng)用于判別分析的優(yōu)缺點(diǎn)。 方法: 簡要介紹Logitboost和累積比數(shù)Logit模型的原理,并采用此兩種方法分別對同一個實(shí)例進(jìn)行判別分析。結(jié)果: 兩種方法的判別正確率均較高。Logitboost判別效果高于累積比數(shù)Logit模型判別。討論: 在迭代輪數(shù)適當(dāng)?shù)那闆r下,Logitboost判別正確率更高,受迭代次數(shù)影響較大;而累積比數(shù)Logit模型的穩(wěn)定性較強(qiáng)。在對事件進(jìn)行判別時,可根據(jù)數(shù)據(jù)資料的具體特點(diǎn)選用判別方法,也可將兩種方法結(jié)合應(yīng)用,取其判別效果較好者。累積比數(shù)Logit模型 判別分析 Logitboost 睡眠質(zhì)量Logitboost and Cumulative Odds Logit Model and Their Application in Discriminant Analysis AbstractObjective: To compare Logitboost with Cumulative odds logit model, and discuss their characteristics when they are used in Discriminant analysis. Methods: The ultimate principle of Logitboost and Cumulative odds logit model will be introduced in this paper, and we will use the two methods to solve the same problem. Results Logitboosts effect is better than Cumulative odds logit model. Conclusion: The effect of Logitboost would be better if a appropriate iteration is given, in other words, Logitboost is affected by iteration in large measure. But Cumulative odds logit model is stable. We should choose the better according the data.Key wordscumulative odds Logit model;discriminant analysis;Logitboost; sleep quality判別分析(discriminant analysis)是判別樣品所屬類型的一類統(tǒng)計(jì)方法,其應(yīng)用之廣可與回歸分析相媲美。進(jìn)行判別時,通常是根據(jù)已經(jīng)掌握的一批分類明確的樣品建立判別函數(shù)。從判別準(zhǔn)則上分為Fisher判別和Bayes判別,但由于這兩種傳統(tǒng)的判別方法各有利弊,對資料有特定要求,如Fisher判別要求資料服從多元正態(tài)分布,Bayes判別要求已知先驗(yàn)概率,當(dāng)不滿足條件時,判別效果往往不理想,給人們的實(shí)際工作帶來許多困難。本研究以一個實(shí)例簡介Logitboost法和累積比數(shù)Logit模型在判別分析中的應(yīng)用。1原理1.1累積比數(shù)Logit模型判別累積比數(shù)Logit模型是二分類Logit模型的擴(kuò)展,主要用于處理反應(yīng)變量為有序分類變量的資料。該模型對資料要求不嚴(yán),解釋變量既可以是連續(xù)型變量,也可以是無序分類變量或有序分類變量1。只要資料滿足比例優(yōu)勢假定條件(proportional odds assumption),即自變量的回歸系數(shù)與分割點(diǎn)無關(guān),且各自變量與LogitP呈線性關(guān)系,即可應(yīng)用此方法。設(shè)應(yīng)變量Y為K個等級的有序變量,第k(k=1,2,K)個等級的概率分別為1,2,k,且ki=1k=1。影響因素xT=(x1,x2,xP)為自變量,xi(i=1,2,p)可以是連續(xù)變量、無序或有序分類變量。則累積比數(shù)Logit模型可以表示為:logit(P(y>k|x)=ln(P(y>k|x)1-P(y>k|x)=-k+pi=1ixi(k=1,2,K-1)等價(jià)于:P(yk|x)=11+e(-k+pi=1ixi)每類結(jié)果的概率:P(y=k|x)=P(yk|x)-P(yk-1|x)=11+e(-k+pi=1ixi)-11+e(-k-1+pi=1ixi) k=1,2, K式中,k和i為待估參數(shù)。該模型實(shí)際上是將K個等級人為地分成1,k 和k+1,K兩類,在這兩類基礎(chǔ)上定義的Logit P表示屬于前k個等級的累積概率與后K-k個等級的累積概率的比數(shù)之對數(shù)。故該模型稱為累積比數(shù)模型。對于K類反應(yīng)變量,K-1個累積Logit模型各有一個不同的k估計(jì),而對于xi,K-1個模型的系數(shù)i均相同2。1.2Logitboost判別Boosting是由Schzpire于1990年首先提出3,后經(jīng)Freud和Schapire改進(jìn)的一種機(jī)器學(xué)習(xí)方法。Frieman、Hastie、Tibshirani于2000年又進(jìn)一步改進(jìn),稱為Logitboost,屬于提升算法的一種。其基本思想是:基于現(xiàn)有樣本數(shù)據(jù)集構(gòu)建一個基礎(chǔ)的“弱分類器”,反復(fù)調(diào)用該“弱分類器”,通過對每輪中錯判的樣本賦予更大的權(quán)重,使其更關(guān)注那些難判的樣本,經(jīng)過多輪循環(huán),最后采用加權(quán)的方法將各輪的“弱分類器”合成“強(qiáng)分類器”,從而得到較高精度的預(yù)測模型4。其算法如下:首先給定一個樣本集:(xi1,xiN,yi),yiY=-1,+1表示不同的類。賦予每一個樣品相同的權(quán)重,選定一種基礎(chǔ)分類器,根據(jù)該權(quán)重建立預(yù)測模型,回代樣本,其中錯判的樣本的權(quán)重在下一輪將被提升。迭代T輪后得出最終分類器F(x):F(xi)=Tt=1F(t)(xi) 式中,t(1,T)為迭代輪數(shù),f(x)表示弱分類器的函數(shù)形式,可以是Logit函數(shù)、決策樹等,根據(jù)F(xi)的正負(fù)對第i個樣品進(jìn)行判別歸類。

注意事項(xiàng)

本文(Logitboost法與累積比數(shù)Logit模型在判別分析中的應(yīng)用分析)為本站會員(冷***)主動上傳,裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對上載內(nèi)容本身不做任何修改或編輯。 若此文所含內(nèi)容侵犯了您的版權(quán)或隱私,請立即通知裝配圖網(wǎng)(點(diǎn)擊聯(lián)系客服),我們立即給予刪除!

溫馨提示:如果因?yàn)榫W(wǎng)速或其他原因下載失敗請重新下載,重復(fù)下載不扣分。




關(guān)于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權(quán)所有   聯(lián)系電話:18123376007

備案號:ICP2024067431-1 川公網(wǎng)安備51140202000466號


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務(wù)平臺,本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對上載內(nèi)容本身不做任何修改或編輯。若文檔所含內(nèi)容侵犯了您的版權(quán)或隱私,請立即通知裝配圖網(wǎng),我們立即給予刪除!