?? 3.3 模糊神經網絡的學習.htm
字號:
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<!-- saved from url=(0044)http://www.jgchina.com/ednns/ednnsbk/6.3.htm -->
<HTML><HEAD><TITLE>3.3 模糊神經網絡的學習</TITLE>
<META http-equiv=Content-Type content="text/html; charset=gb2312">
<META content="MSHTML 6.00.2800.1106" name=GENERATOR>
<META content=FrontPage.Editor.Document name=ProgId><LINK
href="3.3 模糊神經網絡的學習.files/style.css" type=text/css rel=stylesheet></HEAD>
<BODY bgColor=#ffffff leftMargin=0 topMargin=0>
<TABLE height=897 cellSpacing=0 cellPadding=0 width=778 border=0>
<TBODY>
<TR>
<TD width="100%" height=7>
<P><A
href="http://www.jgchina.com/ednns/ednnsbk/director.htm">回目錄</A>
<A
href="http://www.jgchina.com/ednns/ednnsbk/6.2.htm">上一頁</A>
<A href="http://www.jgchina.com/ednns/ednnsbk/6.3.3.htm">下一頁</A>
</P></TD></TR>
<TR>
<TD width="100%" height=18>
<P align=center>3.3 模糊神經網絡的學習</P></TD></TR>
<TR>
<TD width="100%" height=348>
<P>在模糊神經網絡中,混合模糊神經網絡在目前還是表示一種算法,所以它不存在學習問題。所謂學習,是指對邏輯模糊神經網絡和常規模徹神經網絡而言的。在這一節中,分別介紹邏輯模糊神經網絡的學習,算術模糊神經網絡的學習方法。
</P>
<P>3.3.1 邏輯模糊神經網絡的學習算法</P>
<P>考慮圖3—1所示的模糊神經元模型。在圖中,xi,i=O,1,…,n,是模糊輸入信號;W<SUB>j</SUB>,j=0
,1,…,n,是模糊權系數。</P>
<P>邏輯模糊神經網絡的神經元模型是由式(3—3)來描述的。對于“或”神經元用式(3—4)(3-5)表示,而“與”神經元則用式(3—6)(3—7)表示。</P>
<P>設Y<SUB>d</SUB>是輸出的期望值,Y<SUB>d</SUB>∈[-1,1]。而Y是模糊神經元的實際輸出;則有輸出誤差e:</P>
<P>e-Y<SUB>d</SUB>-Y∈[-1,1]</P>
<P>執行學習的目的就是修改神經元中的權系數W'和增益參數g。使到輸出的誤差e最小。學習結構框圖如圖3—8所示。</P>
<P align=center><IMG height=239 src="3.3 模糊神經網絡的學習.files/6.3.ht42.gif"
width=548 border=0></P>
<P align=center>圖3-8 模糊神經元學習框架</P></TD></TR>
<TR>
<TD width="100%" height=574>
<P>如果輸入的信號屬于[0,1]<SUP>n+1</SUP>超立方體空間的,則先變換到[-1,1]<SUP>n+1</SUP>超立方體空間。再送入神經元中,神經元的輸出Y和給定的期望值Y<SUB>d</SUB>比較。產生誤差e。學習機構根據誤差的情況分別對權系數W和激發函數的增益g進行修改。使神經元的輸出Y趨于期望Y<SUB>d</SUB>。
</P>
<P>考慮神經元的輸入和權系數向量分別如式(3—8),式(3—9)所示。</P>
<P>X(t)=[X<SUB>0</SUB>(t),X<SUB>1</SUB>(t),...,X<SUB>n</SUB>(t)]<SUP>T</SUP>∈[0,1]<SUP>n+1</SUP></P>
<P>W(t)=[W<SUB>0</SUB>(t),W<SUB>1</SUB>(t),...,W<SUB>n</SUB>(t)]<SUP>T</SUP>∈[0,1]<SUP>n+1</SUP></P>
<P>令</P>
<P>Z<SUB>i</SUB>(t)=2X<SUB>i</SUB>(t)-1</P>
<P>W<SUB>i</SUB>'(t)=2W<SUB>i</SUB>(t)-1</P>
<P>則有</P>
<P>Z(t)=[Z<SUB>0</SUB>(t),Z<SUB>1</SUB>(t),...,Z<SUB>n</SUB>(t)]<SUP>T</SUP>∈[-1,1]<SUP>n+1</SUP></P>
<P>W'(t)=[W<SUB>0</SUB>'(t),W<SUB>1</SUB>'(t),...,W<SUB>n</SUB>'(t)]<SUP>T</SUP>∈[0,1]<SUP>n+1</SUP></P>
<P>模糊神經元的學習算法如下</P>
<P>1.權系數W'的學習算法</P>
<P>W'(t+1)=W'(t)OR
ΔW'(t)=S[W'(t),ΔW'(t)]
(3-87)</P>
<P>其中</P>
<P>ΔW'(t)=Z(t) AND e(t)=T|Z(t),e(t)|</P>
<P>2.S函數的增益g的學習算法</P>
<P>g(t+1)=g(t) OR Δg(t)=S|g(t),Δg(t)|
(3-88)</P>
<P>其中</P>
<P>Δg(t)=u(t) AND e(t)=T[u(t),e(t)]</P>
<P align=center><IMG height=309 src="3.3 模糊神經網絡的學習.files/6.3.ht43.gif"
width=568 border=0></P>
<P align=center>圖3-9 模糊神經元的學習結構</P></TD></TR>
<TR>
<TD width="100%" height=304>
<P>在上面式(3—87)中,結出了模糊神經元權系數學習的算法;它也表示了一種模糊神經結構的實際模型。如果認為權系數是外部輸人和樹突輸入之間的模糊關系,那么,模糊神經網絡是可以通過經驗進行學習的。<BR>在上面式(3—88)中,修改g實際上是修改激發的靈敏度。因為參數g影響S函數的斜率,很明顯也就影響神經元受激發的靈敏度。
</P>
<P>模糊神經元的學習結構如圖3—9中所示。</P>
<P>在圖3—9中,很明顯有2個學習環節,一個是權系數W'的學習環節,另一個是增益g的學習環節,它們是相互獨立的。在這兩個環節中,其中的Z-1處理框圖是表示延時一個采樣周期,故而它的輸入為W'(t+1)時,輸出為W'(t);輸入為g(t+1)時,輸出為g(t)。就是說這時Z-1的z是脈沖傳遞函數的符號;而不是雙極信號z(t)中的信號。</P>
<P>3.3.2算術模糊神經網絡的學習算法</P>
<P>算術模糊神經網絡也稱常規模糊神經網絡,對算術模糊神經網絡的學習算法隨著這種網絡的提出也同時提出了,但在這方面的研究方法有多種,而這些方法各有特點;在不同的場合和條件下有各自的優點。1992年,Buckley和Hayashi提出了模糊反向傳播算法;同時.Ishibuchi等人提出了基于。截集的反向傳播法。1994年,Buckley和Hayashi提出模糊神經網絡的遺傳算法。1995年,Ishibuchi等人提出了具有三角模糊權的模糊神經網絡的學習算法。還有人提出了一些其它的算法。</P>
<P>在各種學習算法中,較有實際意義的是具有三角模糊權的模糊神經網絡的學習算法.和遺傳學習算法。</P>
<P>對于具有三角模物權的模城神經網絡的學習算法,首先考慮模數數的模糊乘式(3—20)和模糊加式(3—23)。模糊非線性映射式(3—25),這些運算都是在水平截集的情況中執行的。</P>
<P>對于α截集,為了方便書寫,這里不采用式(3—58)的表示方法,而采用下面表示方法:</P>
<P>對于模糊數N的α截集,用N[α]表示,并且有:</P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="78%"><IMG height=30
src="3.3 模糊神經網絡的學習.files/6.3.ht44.gif" width=270 border=0></TD>
<TD width="22%">(3-89)</TD></TR>
<TR>
<TD width="78%"><FONT
size=2>其中:N(n)是隸屬函數,R是全體實數集。<BR>由于模糊數的水平截集是一個閉區間,故α截集N[α]可以表示為</FONT></TD>
<TD width="22%"></TD></TR>
<TR>
<TD width="78%"><IMG height=29
src="3.3 模糊神經網絡的學習.files/6.3.ht45.gif" width=206 border=0></TD>
<TD width="22%">(3-90)</TD></TR>
<TR>
<TD width="78%"><FONT
size=2>其中n<SUB>L</SUB>(α)是N[α]的下限值;<BR>n<SUB>u</SUB>(α)是N[α]的上限值。<BR>根據區問算法,模糊數的運算可以寫成α截集的運算</FONT></TD>
<TD width="22%"></TD></TR>
<TR>
<TD width="78%"><IMG height=64
src="3.3 模糊神經網絡的學習.files/6.3.ht46.gif" width=438 border=0></TD>
<TD width="22%">(3-91)</TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=11>
<P><IMG height=31 src="3.3 模糊神經網絡的學習.files/6.3.ht47.gif" width=417
border=0><BR>
<P><IMG height=56 src="3.3 模糊神經網絡的學習.files/6.3.ht48.gif" width=630
border=0></P></TD></TR>
<TR>
<TD width="100%" height=11>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="77%"><IMG height=59
src="3.3 模糊神經網絡的學習.files/6.3.ht49.gif" width=288 border=0></TD>
<TD width="23%">(3-93)</TD></TR>
<TR>
<TD width="77%"><FONT
size=2>在b<SUB>u</SUB>(α)>b<SUB>L</SUB>(α)>0的情況中,則式(3—92)可以簡化為</FONT></TD>
<TD width="23%"></TD></TR>
<TR>
<TD width="100%" colSpan=2><IMG height=27
src="3.3 模糊神經網絡的學習.files/6.3.ht50.gif" width=695 border=0>
<P
align=right>(3-94) </P></TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=375>
<P>一、算術模糊神經網絡輸出的計算 </P>
<P>考慮一個三層的前向神經網絡,用I表示輸入層,H表示隱層,O表示輸出層。假設其輸入、輸出、權系數和閥值都是模糊量;其中輸人、輸出是任意模糊量,但權系數和閥值是三角模糊量。這種模糊神經網絡如圖3—10所示。</P>
<P align=center><IMG height=380 src="3.3 模糊神經網絡的學習.files/6.3.ht51.gif"
width=458 border=0></P>
<P align=center>圖3-10 模糊神經網絡</P></TD></TR>
<TR>
<TD width="100%" height=99>
<P>很明顯,對于圖3—10所示的網絡有如下輸入輸出關系,輸人層的輸出為I<SUB>i</SUB>:<BR>I<SUB>i</SUB>=X<SUB>i</SUB>
i=1,2,...,nI
(3-95) </P>
<P>隱層的輸出為Hj:</P>
<P>H<SUB>j</SUB>=f(U<SUB>j</SUB>),j=1,2,...,nH
(3-96)</P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="85%"><IMG height=44
src="3.3 模糊神經網絡的學習.files/6.3.ht52.gif" width=160 border=0></TD>
<TD width="15%">(3-97)</TD></TR>
<TR>
<TD width="85%"><FONT
size=2>輸出層的輸出為Ok:<BR>O<SUB>k</SUB>=f(U<SUB>k</SUB>),k=1,2,...,nO </FONT>
</TD>
<TD width="15%">(3-98)</TD></TR>
<TR>
<TD width="85%"><IMG height=44
src="3.3 模糊神經網絡的學習.files/6.3.ht53.gif" width=164 border=0></TD>
<TD width="15%">(3-99)</TD></TR></TBODY></TABLE></TD></TR>
<TR>
<TD width="100%" height=95>
<P>在上面(3—95)到(3—99)式中,X<SUB>i</SUB>是模糊輸入,W<SUB>ji</SUB>,W<SUB>kj</SUB>是模糊權系數,θ<SUB>j</SUB>,θ<SUB>k</SUB>是模糊閥值。
</P>
<P>為方便計算,在圖3—10所示的模糊神經網絡中,采用水平截集進行計算。對于α截集,則模糊神經網絡輸入輸出關系可以寫為下面式子:</P>
<P>對于輸入層,有</P>
<P>I<SUB>i</SUB>[α]=X<SUB>i</SUB>[α]
(3-100)</P>
<P>對于隱層,有</P>
<P>H<SUB>j</SUB>[α]=f(U<SUB>j</SUB>[α])
(3-101)</P>
<TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0>
<TBODY>
<TR>
<TD width="72%"><IMG height=39
src="3.3 模糊神經網絡的學習.files/6.3.ht54.gif" width=272 border=0></TD>
<TD width="28%">(3-102)</TD></TR>
<TR>
<TD width="72%"><FONT size=2>對于輸出層,有 </FONT>
<P><FONT
size=2>O<SUB>k</SUB>[α]=f(U<SUB>k</SUB>[α])
(3-103)</FONT> </P></TD>
?? 快捷鍵說明
復制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -