?? 9.txt
字號:
發(fā)信人: yaomc (白頭翁&山東大漢), 信區(qū): DataMining
標 題: [合集]what's mean of overfitting?
發(fā)信站: 南京大學小百合站 (Thu Jan 24 19:56:18 2002), 站內信件
pchina (東風) 于Mon Jan 14 15:06:15 2002)
提到:
請教,看關于神經挖掘時有這么一段話,其中的overfit應譯成什么呢,那么大俠能告我?
overfitting happens when a model works very well on its trainning set,but has
poor performance on new data.
waterflower (擁抱陽光) 于Mon Jan 14 16:05:21 2002提到:
記得好象是‘過配’的意思,可能是刪除的東西
刪太多了吧??
joe (步月) 于Mon Jan 14 16:46:21 2002提到:
是過配。
指的是模型(例如神經網絡)由于過度訓練,導致其記憶住的不是
訓練數據的一般特性,而是訓練集的局部特性。當將這個模型
應用到新的測試集上時就導致預測結果不準確。
yaomc (白頭翁&山東大漢) 于Mon Jan 14 16:56:38 2002提到:
一般指的是過度擬合,或者成為過擬合。
根據英文的意思應該是:這個經過訓練的模型對于訓練集樣本來說是很好的,
但是對于新數據來說,就表現的不好。
fervvac (高遠) 于Mon Jan 14 18:02:01 2002提到:
The sentence is self-explanatory.
A simple example is as follows. Given n points on 2-D space, do curve fitting.
The optimal solution (i.e., no error) is a n+1 polynomial function. However,
as it is easily know, such high order functions will be very irrgular.
Intuitively, that will not be the real case.
explorer (void) 于Mon Jan 14 20:43:04 2002提到:
訓練過頭了
flybird (風之子) 于Mon Jan 14 23:24:21 2002提到:
過擬合
tyqqre (tyqqre) 于Tue Jan 15 13:50:18 2002)
提到:
給定一個假設空間H, 該空間中的一個假設h與訓練例過分吻合,是指若存在另一個假設h1
,使得在訓練例上h比h1的錯誤少,但是在全部實例上h1比h的錯誤少。
GzLi (笑梨) 于Tue Jan 15 15:18:10 2002提到:
overfitting 過擬合
a traditional problem of pattern recognition
in SLT(statistical learning theory), the VC dim. of your nn(neural networks)
is too high, so produce the phemenon,
so in SVM(support vector machine) we fix the training error and reduce the VC
dim. of nn.
pchina (東風) 于Thu Jan 17 19:29:31 2002)
提到:
I see ,thanks a lot!!
?? 快捷鍵說明
復制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -