?? 1.4.4 art模型的學習算法.htm
字號:
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<!-- saved from url=(0046)http://www.jgchina.com/ednns/ednnsbk/4.4.4.htm -->
<HTML><HEAD><TITLE>1.4.4 ART模型的學習算法</TITLE>
<META http-equiv=Content-Type content="text/html; charset=gb2312">
<META content="MSHTML 6.00.2800.1106" name=GENERATOR>
<META content=FrontPage.Editor.Document name=ProgId><LINK
href="1.4.4 ART模型的學習算法.files/style.css" type=text/css rel=stylesheet></HEAD>
<BODY bgColor=#ffffff leftMargin=0 topMargin=0>
<TABLE height=197 cellSpacing=0 cellPadding=0 width=778 border=0>
<TBODY>
<TR>
<TD width="100%" height=13>
<P><A
href="http://www.jgchina.com/ednns/ednnsbk/director.htm">回目錄</A>
<A
href="http://www.jgchina.com/ednns/ednnsbk/4.4.htm">上一頁</A>
<A href="http://www.jgchina.com/ednns/ednnsbk/4.5.htm">下一頁</A></P></TD></TR>
<TR>
<TD width="100%" height=12>
<P>1.4.4 ART模型的學習算法</P></TD></TR>
<TR>
<TD width="100%" height=177>
<P>ART模型是一種有自組織能力的神經網絡模型,它是通過競爭機制在F2中建立對應于輸入模式I的編碼的。<BR>在F2中形成對應于輸人模式I的編碼;在本質上就是對外界輸入模式I進行學習,使網絡的權系數取得恰當的對應值。這就要按照一定的規則或者學習算法來對權系數進行修改。
<P>下面分別就F<SUB>1</SUB>到F<SUB>2</SUB>,F<SUB>2</SUB>到F<SUB>1</SUB>的權系數學習過程進行介紹。</P>
<P>一、自下而上的權系數學習算法</P>
<P>所謂自下而上,也即是從F<SUB>1</SUB>到F<SUB>2</SUB>的方向;自下而上的權系數就是從F<SUB>1</SUB>到F<SUB>2</SUB>的權系數。F<SUB>1</SUB>中的神經元用N<SUB>i</SUB>表示,F<SUB>2</SUB>中的神經元用N<SUB>j</SUB>表示;則從F<SUB>1</SUB>的神經元N<SUB>i</SUB>到F<SUB>2</SUB>的神經元N<SUB>j</SUB>的權系數用w<SUB>ij</SUB>表示。</P>
<P>在學習時,權系數W<SUB>ij</SUB>用下面的方程來修正:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="67%"><IMG height=45
src="1.4.4 ART模型的學習算法.files/4.4.4.42.gif" width=297 border=0></TD>
<TD width="33%">(1-63)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=18>
<P>其中:f(x<SUB>j</SUB>)是神經元N<SUB>j</SUB>到F<SUB>1</SUB>的輸出信號;
<P>h(X<SUB>i</SUB>)是神經元N<SUB>i</SUB>到F<SUB>2</SUB>的輸出信號;</P>
<P>E<SUB>ij</SUB>是參數;</P>
<P>K<SUB>1</SUB>是參數。</P>
<P>對于參數E<SUB>ij</SUB>,一般按下式選取</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="67%"><IMG height=34
src="1.4.4 ART模型的學習算法.files/4.4.4.43.gif" width=225 border=0></TD>
<TD width="33%">(1-64)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=18>
<P>其中:L為常數L<SUP>-1</SUP>=1/L。
<P>如果取K1為常數,并且有K<SUB>1</SUB>=KL,則權系數W<SUB>ij</SUB>的微分方程可以寫成</P>
<P><IMG height=44 src="1.4.4 ART模型的學習算法.files/4.4.4.44.gif" width=416
border=0></P>
<P>這個方程說明:當F<SUB>2</SUB>層中神經元N<SUB>j</SUB>的輸出為正時,來自F<SUB>1</SUB>層中神經元N<SUB>i</SUB>正的輸出信號以速率(1-W<SUB>ij</SUB>)Lh(X<SUB>i</SUB>)Kf(X<SUB>j</SUB>)來影響權系數Wij的改變。<BR>在上面方程中,<IMG
height=32 src="1.4.4 ART模型的學習算法.files/4.4.4.45.gif" width=107
border=0>所有輸入神經元中i≠k的輸出信號h(X<SUB>k</SUB>)的總和;這個信號也就是F<SUB>1</SUB>中除N<SUB>i</SUB>以外的其它所有神經元對F<SUB>2</SUB>中神經元N<SUB>j</SUB>的輸人信號。ART模型就根據這個信號的大小來增強與Nj相對應的連接權系數。</P>
<P>二、自上而下的權系數的學習算法</P>
<P>從F<SUB>2</SUB>到F<SUB>1</SUB>的權系數稱為自上而下的權系數,它用W<SUB>ji</SUB>表示。權系數W<SUB>ji</SUB>滿足如下方程:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="76%"><IMG height=44
src="1.4.4 ART模型的學習算法.files/4.4.4.46.gif" width=295 border=0></TD>
<TD width="24%">(1-65)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=18>
<P>其中:f(x<SUB>j</SUB>)是神經元N<SUB>j</SUB>到F<SUB>1</SUB>的輸出信號;
<P>h(X<SUB>i</SUB>)是神經元N<SUB>i</SUB>到F<SUB>2</SUB>的輸出信號;</P>
<P>K<SUB>2</SUB>,E<SUB>ji</SUB>是參數,一般簡單取K<SUB>2</SUB>=E<SUB>ji-1</SUB></P>
<P>很明顯,W<SUB>ji</SUB>的微分方程可以寫成下式:</P>
<P><IMG height=47 src="1.4.4 ART模型的學習算法.files/4.4.4.47.gif" width=256
border=0></P>
<P>如果從F<SUB>2</SUB>來的學習期望和外部輸入在F<SUB>1</SUB>中不能匹配時;調整子系統A就會產生一個重置信導到F<SUB>2</SUB>中去,改變F<SUB>2</SUB>的狀態,取消原來的學習期望輸出。顯然,在這時取向子系統處于工作狀態。輸入模式為I,它是一個n維向量,故有n個元素。當I輸人到ART網絡的F<SUB>1</SUB>層時,它就會送m個大小固定為P的信號到A中。這樣,從輸入端到A的所有激勵信號為n’P。同樣,F<SUB>1</SUB>中的神經元也同時產生一個大小固定為Q的抑制信號送到A中;F<SUB>1</SUB>中的激活模式為X,而對應于激活模式X從F1到A的激話連接個數為I;那么,從F<SUB>1</SUB>到A的所有的抑制信號為IQ。如存在條件</P>
<P>n'p>IQ</P>
<P>則說明激勵作用大于抑制作用.則取向子系統A就會收到激勵信號,并產生一個重置信號到F<SUB>2</SUB>中,令</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="64%"><IMG height=47
src="1.4.4 ART模型的學習算法.files/4.4.4.48.gif" width=53 border=0></TD>
<TD width="36%">(1-67)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=21>
<P>并稱為取向子系統的警戒線參數。
<P>考慮在n'P>IQ時有</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="83%"><IMG height=45
src="1.4.4 ART模型的學習算法.files/4.4.4.49.gif" width=68 border=0></TD>
<TD width="17%" rowSpan=2>(1-68)</TD></TR>
<TR>
<TD width="83%">顯然有</TD></TR>
<TR>
<TD width="55%"><IMG height=41
src="1.4.4 ART模型的學習算法.files/4.4.4.50.gif" width=55 border=0></TD>
<TD width="45%">(1-69)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=13>
<P>這時,則A會產生重置信號到F<SUB>2</SUB>。反亦反之。<BR>當A把重置信號送到F<SUB>2</SUB>時,F<SUB>2</SUB>中的神經元的輸出按下式進行修正:
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="66%"><IMG height=53
src="1.4.4 ART模型的學習算法.files/4.4.4.51.gif" width=321 border=0></TD>
<TD width="34%">(1-70)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=12>
<P>其中:T<SUB>j</SUB>是從F<SUB>1</SUB>來的到F<SUB>2</SUB>的輸入模式;<IMG height=36
src="1.4.4 ART模型的學習算法.files/4.4.4.52.gif" width=160 border=0>
<P>J是F<SUB>2</SUB>中神經元的一些集合;這些神經元在學習過程中末被置以新值。</P>
<P>在學習的過程中,每個學習周期開始把J置為(n+1,n+2,……m)。隨著學習過程的繼續,在這個周期內每次遞歸都應從J中清去一個F<SUB>2</SUB>神經元的下標.直到產生了正確的匹配才停止。</P>
<P>自適應共振理論模型ART的數學分析以及學習算法有關情況可以用圖1—26所示的框圖表示。</P>
<P align=center><IMG height=332 src="1.4.4 ART模型的學習算法.files/4.4.4.53.gif"
width=463 border=0></P></TD></TR>
<TR>
<TD width="100%" height=1>
<P align=center>圖1-26 數學分析及算法有關圖示</P></TD></TR>
<TR>
<TD width="100%" height=9>
<P>1.4.5 ART模型的Lippman學習算法
<P>ART網絡有多種學習算法,在這部分介紹Lippman在1987年提出的算法。這個算法的步驟及執行過程如下:</P>
<P>一、初始化</P>
<P>初始化時對從F<SUB>1</SUB>到F<SUB>2</SUB>的權系數W<SUB>ij</SUB>,F<SUB>2</SUB>到F<SUB>1</SUB>的權系數W<SUB>ji</SUB>以及警戒值P進行初設定。</P>
<P>1.F<SUB>1</SUB>到F<SUB>2</SUB>的權系數w<SUB>ij</SUB>初始化</P>
<P>W<SUB>ij</SUB>的初始值按下式設定:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="73%"><IMG height=40
src="1.4.4 ART模型的學習算法.files/4.4.4.54.gif" width=192 border=0></TD>
<TD width="27%">(1-71)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=7>
<P>其中:n為輸入向量I的元素個數;
<P>L為大于1的常數,一般取L=2。</P>
<P>為了方便,可直接取:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="73%"><IMG height=41
src="1.4.4 ART模型的學習算法.files/4.4.4.55.gif" width=127 border=0></TD>
<TD width="27%">(1-72)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=10>
<P>W<SUB>ij</SUB>(0)的值不能太大,太大則網絡可能把識別層F2的所有神經元都分配給一個輸入模式。
?? 快捷鍵說明
復制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -