阻尼最小二乘法(即levenberg-Marquarat算法),是Gauss-Newton算法的一種修正法。
標(biāo)簽: levenberg-Marquarat 阻尼 最小二乘法 算法
上傳時間: 2014-02-19
上傳用戶:無聊來刷下
本程序是BP算法的演示程序, 其中的Levenberg-Marquardt算法具有實用價值。隨代碼還提供幫助文件,非常方便。
標(biāo)簽: Levenberg-Marquardt 程序 BP算法 價值
上傳時間: 2015-03-11
上傳用戶:stampede
matlab使用BP網(wǎng)絡(luò)的例子,使用Levenberg Marquardt算法提高訓(xùn)練速度,效果不錯
標(biāo)簽: Levenberg Marquardt matlab BP網(wǎng)絡(luò)
上傳時間: 2015-05-08
上傳用戶:rishian
神經(jīng)網(wǎng)絡(luò)進行手寫數(shù)字識別: 本程序是BP算法的演示程序, 其中的Levenberg-Marquardt算法具有實用價值. 帶有圖形界面
標(biāo)簽: Levenberg-Marquardt 程序 神經(jīng)網(wǎng)絡(luò) 數(shù)字識別
上傳時間: 2014-11-11
上傳用戶:moerwang
levenberg marquit算法的.C源碼
標(biāo)簽: levenberg marquit 算法 源碼
上傳時間: 2015-10-02
上傳用戶:caiiicc
C/C++ implementation of the Levenberg-Marquardt non-linear least squares algorithm. levmar includes double and single precision LM versions, both with analytic and finite difference approximated jacobians
標(biāo)簽: Levenberg-Marquardt implementation non-linear algorithm
上傳時間: 2013-12-28
上傳用戶:gxf2016
本程序是BP算法的演示程序, 其中的Levenberg-Marquardt算法具有實用價值. 一、網(wǎng)絡(luò)訓(xùn)練 程序默認(rèn)狀態(tài)是樣本訓(xùn)練狀態(tài),現(xiàn)將樣本訓(xùn)練狀態(tài)下的如何訓(xùn)練網(wǎng)絡(luò)進行說明: 1.系統(tǒng)精度: 定義系統(tǒng)目標(biāo)精度,根據(jù)需要定義網(wǎng)絡(luò)訓(xùn)練誤差精度.誤差公式是對訓(xùn)練出網(wǎng)絡(luò)的輸出層節(jié)點和實際的網(wǎng)絡(luò)輸出結(jié)果求平方差的和. 最大訓(xùn)練次數(shù): 默認(rèn)為10000次,根據(jù)需要調(diào)整,如果到達最大訓(xùn)練次數(shù)網(wǎng)絡(luò)還未能達到目標(biāo)精度,程序退出. 3.步長: 默認(rèn)為0.01,由于采用變步長算法,一般不需人工設(shè)置. 4.輸入層數(shù)目: 人工神經(jīng)網(wǎng)絡(luò)的輸入層神經(jīng)元的節(jié)點數(shù)目. 5.隱含層數(shù)目: 人工神經(jīng)網(wǎng)絡(luò)的隱含層神經(jīng)元的節(jié)點數(shù)目. 6.輸出層數(shù)目: 人工神經(jīng)網(wǎng)絡(luò)的輸出層神經(jīng)元的節(jié)點數(shù)目. 7.訓(xùn)練算法: 強烈建議選取Levenberg-Marquardt算法,該算法經(jīng)過測試比較穩(wěn)定. 8.激活函數(shù): 不同的網(wǎng)絡(luò)激活函數(shù)表現(xiàn)的性能不同,可根據(jù)實際情況選擇. 9.樣本數(shù)據(jù)的處理: 由于程序沒有實現(xiàn)歸一化功能, 因此用來訓(xùn)練的樣本數(shù)據(jù)首先要歸一化后才能進行訓(xùn)練.
標(biāo)簽: Levenberg-Marquardt 程序 狀態(tài) 樣本
上傳時間: 2013-12-19
上傳用戶:firstbyte
最新的Levenberg Marquardt 算法。用于非線性最小二乘問題的參數(shù)估計和優(yōu)化!
標(biāo)簽: Levenberg Marquardt 算法 參數(shù)估計
上傳時間: 2016-11-20
上傳用戶:lili123
% Train a two layer neural network with the Levenberg-Marquardt % method. % % If desired, it is possible to use regularization by % weight decay. Also pruned (ie. not fully connected) networks can % be trained. % % Given a set of corresponding input-output pairs and an initial % network, % [W1,W2,critvec,iteration,lambda]=marq(NetDef,W1,W2,PHI,Y,trparms) % trains the network with the Levenberg-Marquardt method. % % The activation functions can be either linear or tanh. The % network architecture is defined by the matrix NetDef which % has two rows. The first row specifies the hidden layer and the % second row specifies the output layer.
標(biāo)簽: Levenberg-Marquardt desired network neural
上傳時間: 2016-12-27
上傳用戶:jcljkh
Levenberg-Marquardt最小二乘擬合
標(biāo)簽: Levenberg-Marquardt
上傳時間: 2013-12-26
上傳用戶:firstbyte
蟲蟲下載站版權(quán)所有 京ICP備2021023401號-1