?? 1.4.4 art模型的學習算法.htm
字號:
<P>2.F<SUB>2</SUB>到F<SUB>1</SUB>的權系數W<SUB>ij</SUB>初始化</P>
<P>W<SUB>ji</SUB>的初始值取為1,即有</P>
<P>W<SUB>ji</SUB>(0)=1 (1-73)</P>
<P>Wji(0)的值不能太小,太小則導致比較層F1不匹配。</P>
<P>3.警戒值P的初始化</P>
<P>P的值按下列范圍選取:</P>
<P>0≤P≤1 (1-74)</P>
<P>P的值的選擇要恰當。P的值太大,則網絡會過細辯別差異iP的值太小,則容易把稍有某點相似的輸入模式都當作同一類。在學習中,一開始取小的P值,進行粗分類;然后,逐漸增大警戒值P,進行逐步細分類。</P>
<P>二、輸入一個新的模式</P>
<P>三、進行匹配度計算</P>
<P>由于識別層是輸入向量I的分類器,為了考慮輸入向量I和識別層中對應的神經元相關的權系數形態是否匹配,故而要求其匹配程度。這時,計算識別層每個神經元j的激活量Y<SUB>j</SUB>。</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="83%"><IMG height=34
src="1.4.4 ART模型的學習算法.files/4.4.4.56.gif" width=160 border=0></TD>
<TD width="17%">(1-75)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=72>
<P>其中:Yj為識別層神經元j的激活值;
<P>Si為比較層神經元i的輸出;</P>
<P>k是學習的次數。</P>
<P>四、選擇最優匹配神經元C</P>
<P>ART網絡在識別層通過橫向抑制,從而使到只有激活值最大的神經元c才能輸出1,其它神經元則輸出0。神經元C的激活值用Yc表示,則:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="83%"><IMG height=32
src="1.4.4 ART模型的學習算法.files/4.4.4.57.gif" width=116 border=0></TD>
<TD width="17%">(1-76)</TD></TR>
<TR>
<TD width="83%">考慮識別層的神經元傳遞函數f為階躍型函數,即有輸出Uj</TD>
<TD width="17%"></TD></TR>
<TR>
<TD width="83%"><IMG height=60
src="1.4.4 ART模型的學習算法.files/4.4.4.58.gif" width=256 border=0></TD>
<TD width="17%">(1-77)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=8>
<P>其中:Y<SUB>j</SUB>是神經元j的激活值;
<P><SPAN
style="FONT-FAMILY: 宋體; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: Times New Roman; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA"><FONT
size=3>θ</FONT></SPAN><SUB>j</SUB>是神經元j的閥值;</P>
<P>U<SUB>j</SUB>是神經元j的輸出。</P>
<P>五、比較和試驗警戒值</P>
<P>識別層的神經元在選擇出最優匹配的神經元之后,則有1輸出,故而比較層增益控制輸出0。依據2/3規則,比較層中U和I的元素均為1的神經元被激活。取向子系統A則對比較層輸出的向量s和輸入向量I進行比較,如果相似率低于警戒值P,則向識別層發出重置信號,對識別層進行清零。向量S和向量I的相似率用R表示,則有</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="83%"><IMG height=49
src="1.4.4 ART模型的學習算法.files/4.4.4.59.gif" width=96 border=0></TD>
<TD width="17%">(1-78)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=10>
<P>其中:‖S‖是s向量的元素值之和,‖s‖=ΣS<SUB>i</SUB>;
<P>‖I‖是I向量的元素值之和,‖I‖=ΣI<SUB>i</SUB></P>
<P>在上面‖S‖和‖I‖的實際計算方法如下:</P>
<P>S=101O1011 ‖S‖=5</P>
<P>I=11111001 ‖II‖=6</P>
<P>由于比較層輸出s是由輸入向量I和識別層輸出向量U共同作用產生的;同時,因神經元c的輸出為1,向量U在本質上是等于取得最優匹配的神經元c從F<SUB>2</SUB>到F<SUB>1</SUB>的權系數向量W<SUB>ci</SUB>。</P>
<P>按2/3規則,兩個輸入同時為1時輸出才能為1。則向量s的元素s<SUB>i</SUB>;可表示為:</P>
<P>S<SUB>i</SUB>=W<SUB>ci</SUB><SUP>.</SUP>I<SUB>i
</SUB>(1-79)</P>
<P>故而</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="83%"><IMG height=31
src="1.4.4 ART模型的學習算法.files/4.4.4.1.gif" width=208 border=0></TD>
<TD width="17%">(1-80)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=5>
<P>如果相似率R大于警值P,即有
<P>R>P</P>
<P>則轉向第七點執行,否則繼續向下執行第六點。</P>
<P>六、最優匹配無效及其處理</P>
<P>如果相似率R小于警戒值p,即R<P,所以,應對其余存儲的模式進行搜索,以便找到一個和輸入模式更加接近的存儲模式。</P>
<P>這時,重置信號到識別層去對神經元清0,則原來選中的最優匹配神經元為0,也說明取消了該神經元的優勝性;把比較層增益控制設置為輸出1,轉到第三點,重復上面過程。</P>
<P>在識別層一個神經元所取得的相似率大于警似值,則轉向策七點,結束分類過程。</P>
<P>在識別層的全部神經元都被搜索過,但沒有一個神經元能匹配,則經學習后確定識別層—個神經元作為輸入模式的最優匹配單元;然后停止分類學習過程;則輸入模式被存儲。分類過程結束時,則從F<SUB>2</SUB>到F<SUB>1</SUB>的權系數全部為1;比較層輸出S等于I,相似率等于1。</P>
<P>七、自學習過程</P>
<P>自學習時,給出一組模式樣本向量,按一定順序作為網絡的輸入向量,對ART網絡的權系數進行調整.使相似類向量都激活識別層同一神經元。</P>
<P>自學習算法如下:</P>
<P>1.計算F<SUB>1</SUB>到F<SUB>2</SUB>的權系數W<SUB>ij</SUB></P>
<P>計算公式如下:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="70%"><IMG height=54
src="1.4.4 ART模型的學習算法.files/4.4.4.2.gif" width=192 border=0></TD>
<TD width="30%">(1-81)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=10>
<P>其中:S<SUB>i</SUB>是比較層輸出向量S的第i個元素;
<P>j是識別和最優匹配神經元序號;</P>
<P>W<SUB>ij</SUB>是比較層神經元i與識別層神經元j之間的權系數</P>
<P>L是大于1的常數。</P>
<P>2.計算F<SUB>2</SUB>到F<SUB>1</SUB>的權系數W<SUB>ji</SUB></P>
<P>把W<SUB>ji</SUB>調整為等于向量S中相應元素的二進制值:</P>
<P>W<SUB>ji</SUB>=S<SUB>i
</SUB>(1-82)</P>
<P>在實際求W<SUB>ij</SUB>和W<SUB>ji</SUB>時,可以采用下面的有效式子。</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="74%"><IMG height=92
src="1.4.4 ART模型的學習算法.files/4.4.4.3.gif" width=160 border=0></TD>
<TD width="26%">(1-83)</TD></TR>
<TR>
<TD width="74%">考慮到學習次數k,則上面式子寫成</TD>
<TD width="26%"></TD></TR>
<TR>
<TD width="74%"><IMG height=85
src="1.4.4 ART模型的學習算法.files/4.4.4.4.gif" width=275 border=0></TD>
<TD width="26%">(1-84)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=8>
<P>用其它向量對網絡繼續進行學習時,則會把這些向量中元素值為0的對應權系數置0。這樣.一組向量全部學習完畢時,則這組向量的元素中有多少個0,則相應位置中的權系數都被置0。學習之后所存儲的權系數形態,是全組向量的“交”形式。這時的權系數形態也是全組向量基本特征。顯然,這等于抽取插入模式的特征。
<P>3.比較層輸出S中1的個數越多,則從F<SUB>1</SUB>到F<SUB>2</SUB>的權系數W<SUB>ij</SUB>越小。</P>
<P>從F1到F2的權系數調整公式為:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="74%"><IMG height=52
src="1.4.4 ART模型的學習算法.files/4.4.4.5.gif" width=179 border=0></TD>
<TD width="26%">(1-85)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=230>
<P>在分母中,ΣS<SUB>k</SUB>是比較層輸出S中1的個數,它表示了向量S的“大小”。顯然,ΣS<SUB>k</SUB>越大則W<SUB>ij</SUB>越小。也就是比較層輸出S的“大小”對權系數W<SUB>ij</SUB>有自動調節作用。
<P>這是一個重要特點,它可以判別兩個輸入向量中,其中一個是否是另一個的子集。ART網絡在自學習過程結束之后,則自動返回第二點;從而準備開始對輸入的新模式進行分類。
<P>在上面Lippman學習算法中可以看出有如下一些特點:
<P>1.F2到F1t的權系數Wij(0)必須初始值取1。
<P>因為.比較層的輸出s是由輸入向量I和最優匹配神經元的權系數Wji;按2/3規則產生。只有I和Wji都為1,s的元素才會為1。
<P>如果W<SUB>ji</SUB>(0)=0,則S的元素會全部為0。則無法進行模式識別。
<P>實際上,搜索過程是一個“剪裁”與輸入向量不匹配的存儲模式元素的過程,這是一個不可逆的過程;一旦權系數取值為0,那么,學習算法是無法使其再取非零的值的。
<P>2.抽取輸入模式的特征
<P>對于一組相似的向量,會被ART網絡中識別層F<SUB>2</SUB>中的一個神經元識別為同一類。
<P>在用這組相似的向量對網絡執行學習時,第一個向量學習的結果選中F<SUB>2</SUB>中的一個神經元。</P></TD></TR>
<TR>
<TD width="100%" height=14>
<P align=right><A
href="http://www.jgchina.com/ednns/ednnsbk/4.4.htm">上一頁</A>
<A
href="http://www.jgchina.com/ednns/ednnsbk/4.5.htm">下一頁</A></P></TD></TR></TBODY></TABLE></BODY></HTML>
?? 快捷鍵說明
復制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -