?? 91.txt
字號:
發(fā)信人: GzLi (笑梨), 信區(qū): DataMining
標 題: [合集]如何將一個數(shù)據(jù)集隨機的分成兩個數(shù)據(jù)集
發(fā)信站: 南京大學小百合站 (Tue Jun 3 21:55:35 2003)
fpzh (fpzh) 于Sat May 24 01:10:15 2003)
提到:
有兩個問題向大家請教
1. 對于一組數(shù)據(jù),做SVM的Model Selection時,通過訓練隨機選擇的70%的數(shù)據(jù)、測試
其余30%的數(shù)據(jù)(只做一次劃分,而不像10fold那樣訓練10次)來估計Validation Per
formance(預測精度或者說推廣能力),可行否
2. (1)對于多類數(shù)據(jù),這70%的數(shù)據(jù)如何隨機選擇?是各類單獨采樣還是對全體數(shù)據(jù)
統(tǒng)一采樣(后者各類的數(shù)據(jù)可能不均衡);(2)采樣應采取“取出后不再放入”的方式
,即從數(shù)據(jù)中隨機選出一個樣本i,以后不再考慮樣本i?
miningboy (找礦男孩) 于Sat May 24 10:58:45 2003)
提到:
選數(shù)據(jù)的時候如果要保持訓練集和測試集中的分布都和原來的相同
可以參考類似十倍交叉驗證的取樣方法。
當然這種應該屬于非重復取樣,跳出xi后要將xi刪除
【 在 fpzh 的大作中提到: 】
: 有兩個問題向大家請教
: 1. 對于一組數(shù)據(jù),做SVM的Model Selection時,通過訓練隨機選擇的70%的數(shù)據(jù)、
?? 快捷鍵說明
復制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -