?? 1.5 kohonen模型.htm
字號:
style="FONT-SIZE: 10.5pt; FONT-FAMILY: 宋體; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: 'Times New Roman'; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">‖</SPAN>x—W<SUB>j</SUB><SPAN
style="FONT-SIZE: 10.5pt; FONT-FAMILY: 宋體; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: 'Times New Roman'; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">‖</SPAN>是歐幾里德距離。它由下面式子求出:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="73%"><IMG height=48
src="1.5 Kohonen模型.files/4.5.ht17.gif" width=258 border=0></TD>
<TD width="27%">(1-92)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=81>
<P>根據匹配規則求出的Wc是神經元C的權系數向量,它是以C為中心的氣泡的一種表示形態;Wc的表示形態就是和輸人模式x的最優匹配。一般稱wc是x的最優匹配。在求出Wc之后,也即是求出了氣泡中心C。接著,就可以考慮對神經元C為中心的鄰域Nc有關神經元的權系數的自組織過程。因為,Wc雖然是求出的對輸入模式x的最優匹配;但wc仍然不是充分表示X;為了使見能夠在改進之后,其形態能充分表示x;故還應對權系數向量Wc進行自組織學習,才能真正形成對應x的氣泡。
</P>
<P>二、網絡權系數的自組織</P>
<P>在SOM網絡中,每一個輸出神經元都接收相同的輸入模式X。對于輸出神經元j來說,其最簡單的輸出是線性的;并且,可以用下式表示:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="73%"><IMG height=39
src="1.5 Kohonen模型.files/4.5.ht18.gif" width=109 border=0></TD>
<TD width="27%">(1-93)</TD></TR>
<TR>
<TD width="73%" height=2>
<P>在權系數進行自組織學習時,權系數的調整方程如下:</P></TD>
<TD width="27%" height=2></TD></TR>
<TR>
<TD width="73%"><IMG height=42
src="1.5 Kohonen模型.files/4.5.ht19.gif" width=384 border=0></TD>
<TD width="27%">(1-94)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=19>
<P>其中:Y(t)是隨時間t變化的遞減增益函數;
<P>Yj(t)是輸出神經元i的輸出;</P>
<P>Xi(t)是輸入神經元i的輸人;</P>
<P>Wij(t)是輸入神經元i和輸出神經元j在時間t時的權系數;</P>
<P>r是常系數。</P>
<P>對于氣泡中心神經元c,以其為中心考慮一個鄰近的區域Nc。Nc是以神經元C為中心的某一半徑范圍內全部神經元的集合。</P>
<P>在Nc區域之內,所有神經元的輸出為1;在Nc區域之外,所有神經元的輸出為0。即有</P>
<P><IMG height=57 src="1.5 Kohonen模型.files/4.5.ht20.gif" width=230
border=0></P>
<P>如果令常系數r為1,即</P>
<P>r=1</P>
<P>則權系數的調整方程成為</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="64%"><IMG height=107
src="1.5 Kohonen模型.files/4.5.ht21.gif" width=384 border=0></TD>
<TD width="36%">(1-95)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=19>
<P align=center><IMG height=481 src="1.5 Kohonen模型.files/4.5.ht22.gif"
width=582 border=0></P>
<P align=center>圖1-31 鄰近區域Nc隨時向的變化</P></TD></TR>
<TR>
<TD width="100%" height=92>
<P>區域Nc的范圍寬度是時變的,在開始時可以選擇范圍寬一些,通常不妨為網絡寬度的一半以上;隨著時間的推移,Nc向以C為中心的小范圍單調變小,最后甚至可以終結在神經元C處,即Nc={C}。
</P>
<P>鄰近區域Nc隨時間而變化的示意圖如圖1—31中所示。從圖中可以看出Nc(tk-1)時的范圍比Nc(tk-2)時要小;也就是說,隨時間的推移所考慮的鄰近區域變小。當到達時間tk時,鄰近區域Nk則處在神經元c處,也即處于氣泡中心位置。</P>
<P>上面式(1—95)的權系數調整方程可以寫為下面形式</P>
<P><IMG height=62 src="1.5 Kohonen模型.files/4.5.ht23.gif" width=408
border=0></P>
<P>在離散系統中,如果以△t為采樣周期T,則有△t=1T。所以,權系靈敏調整方程寫成</P>
<P><IMG height=62 src="1.5 Kohonen模型.files/4.5.ht24.gif" width=384
border=0></P>
<P>考慮離散系統中的權系數調整為差分方程:</P>
<P><IMG height=57 src="1.5 Kohonen模型.files/4.5.ht25.gif" width=392
border=0></P>
<P>即是:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="77%"><IMG height=60
src="1.5 Kohonen模型.files/4.5.ht26.gif" width=500 border=0></TD>
<TD width="23%">(1-96)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=22>
<P>這就是權系數自組織的離散數字表達式。 </P>
<P>對于增益函數<SPAN
style="FONT-FAMILY: 宋體; mso-bidi-font-size: 10.0pt; mso-bidi-font-family: Times New Roman; mso-font-kerning: 1.0pt; mso-ansi-language: EN-US; mso-fareast-language: ZH-CN; mso-bidi-language: AR-SA">η</SPAN>(t)而言,它是一個隨時間變化的遞減函數。一般要求</P>
<P><IMG height=39 src="1.5 Kohonen模型.files/4.5.ht27.gif" width=141
border=0></P>
<P><IMG height=38 src="1.5 Kohonen模型.files/4.5.ht28.gif" width=144
border=0></P>
<P>實際上有</P>
<P>0<η(t+k)<1 k=1,2,...,∞</P>
<P>在實際的權系數自組織過程中,對于連續系統,取:</P>
<P><IMG height=39 src="1.5 Kohonen模型.files/4.5.ht29.gif" width=81
border=0></P>
<P>或者</P>
<P><IMG height=37 src="1.5 Kohonen模型.files/4.5.ht30.gif" width=196
border=0></P>
<P>對于離散系統,則取</P>
<P><IMG height=41 src="1.5 Kohonen模型.files/4.5.ht31.gif" width=347
border=0></P>
<P>或者</P>
<P><IMG height=40 src="1.5 Kohonen模型.files/4.5.ht32.gif" width=442
border=0></P>
<P>從上面可以看出:無論是連續系統還是離散系統,隨時間的增加或采樣周期的推移,增益函數7的值會越來越小。通常取500≤t≤10000或500≤t+k≤10000時,結束自組織過程。</P>
<P>1.5.4 SOM模型學習的具體步驟</P>
<P>在計算機中可以采取一定的恰當步驟對自組織特征映射模型SOM進行學習。這些步驟介紹如下:</P>
<P>一、權系數初始化</P>
<P>對于有n個輸入神經元,P個輸出神經元的SOM網絡,對連接輸入神經元和輸出神經元之間的權系數設定為小的隨機數a,一般有:</P>
<P>0<a<1</P>
<P>同時,設定鄰近區域的初始半徑。</P>
<P>二、給出一個新的輸入模式X<SUB>k</SUB></P>
<P>Xk={X<SUB>1k</SUB>,X<SUB>2k</SUB>,...X<SUB>nk</SUB>}</P>
<P>k=1,2,...</P>
<P>三、求模式X<SUB>k</SUB>和所有的出神經元的距離</P>
<P>對于輸出神經元j,它和特定的輸入模式X<SUB>k</SUB>之間的距離用d<SUB>jk</SUB>表示,并且有</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="80%"><IMG height=46
src="1.5 Kohonen模型.files/4.5.ht33.gif" width=383 border=0></TD>
<TD width="20%">(1-97)</TD></TR>
<TR>
<TD width="80%">j=1,2,...,p</TD>
<TD width="20%"></TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=23>
<P>四、選擇最優匹配的輸出神經元C </P>
<P>和輸入模式X<SUB>k</SUB>的距離最小的神經元就是最優匹配的輸出神經元c。</P>
<P>用W<SUB>c</SUB>表示神經元C對輸入神經元的權系數向量,則應有</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="80%"><IMG height=32
src="1.5 Kohonen模型.files/4.5.ht34.gif" width=204 border=0></TD>
<TD width="20%">(1-98)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=31>
<P>五、修正權系數 </P>
<P>根據設定的鄰近區域,或遞減變小后的區域,對區域Nc中的神經元進行權系數修正。</P>
<P>修正按下式執行</P>
<P>W<SUB>ij</SUB>(t+1)=W<SUB>ij</SUB>(t)+η(t)[X<SUB>i</SUB>(t)-W<SUB>ij</SUB>(t)]
(1-99)</P>
<P>對于區域Nc外的神經元,其權系數不變,即有</P>
<P>W<SUB>ij</SUB>(t+1)=W<SUB>ij</SUB>(t) (1-100)</P>
<P>其中,η(t)是遞減的增益函數,并且有0<η(t)<1。<BR>通常取:</P>
<DIV align=center>
<CENTER>
<TABLE cellSpacing=0 cellPadding=0 width="80%" border=0>
<TBODY>
<TR>
<TD width="80%"><IMG height=40
src="1.5 Kohonen模型.files/4.5.ht35.gif" width=81 border=0></TD>
<TD width="20%">(1-101)</TD></TR>
<TR>
<TD width="80%">或</TD>
<TD width="20%"></TD></TR>
<TR>
<TD width="80%"><IMG height=38
src="1.5 Kohonen模型.files/4.5.ht36.gif" width=195 border=0></TD>
<TD width="20%">(1-102)</TD></TR></TBODY></TABLE></CENTER></DIV></TD></TR>
<TR>
<TD width="100%" height=196>
<P>六、對于不同的t=1,2,…,z(500≤z≤10000),雷新返回第2步去執行。 </P>
<P>在自組織特征映射模型的學習中,當N<SUB>c</SUB>不止包含一個神經元時,這種競爭學習實際上是泄漏競爭學習。<BR>在學習中,增益函數η(t)也即是學習率。由于學習率η(t)隨時間的增加而漸漸趨向零.因此,保證了學習過程必然是收斂的。</P>
<P>自組織特征映射網絡的學習是一種無教師的學習,輸人信號模式是環境自行給出的,而不是人為給出的。當然,這種學習也可以是有教師的,這時則是人為給出教師信號作為輸入肋M模型在檢索時是按下面方式對輸入模式進行分類的:</P>
<P>首先對輸入層輸入模式x,再找出在輸出層中和它有員優匹配的神經元C。則表示輸入模式x屬于神經元c所對應的類別。</P>
<P>SOM網絡學習的不足有如下二點:</P>
<P>第一,當輸入模式較少時,分類結果依賴于模式輸入的先后次序。</P>
<P>第二,和ART網絡不一樣,SOM網絡在沒有經過完整的重新學習之前,不能加入新的類別。</P>
<P>Kohonen已經證明:在學習結束時.每個權系數向量w<SUB>j</SUB>都近似落入到由神經元j所對應的類別的輸入模式空間的中心,可以認為權系數向量w<SUB>j</SUB>形成了這個輸入模式空間的概率結構。所以,權系數向量W<SUB>j</SUB>可作為這個輸入模式的最優參考向量。
<P>自組織特征映射網絡由于有上述作用,所以很適宜用于數據的量化;故也稱作學習向量量化器。</P></TD></TR>
<TR>
<TD width="100%" height=24>
<P align=right><A
href="http://www.jgchina.com/ednns/ednnsbk/4.4.4.htm">上一頁</A>
<A
href="http://www.jgchina.com/ednns/ednnsbk/5.htm">下一頁</A></P></TD></TR></TBODY></TABLE></BODY></HTML>
?? 快捷鍵說明
復制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -