本程序利用奇異值分解對3通道彩色圖像進行壓縮分解,具體步驟如下: 壓縮過程: 1. 選取子圖像大小K值,把圖像分解成M×M個子圖像,IMG(s),s=1,2,…, M2,其中M=N/K,原始圖像IMG大小為N×N。 2. 計算這M2個子圖像的平均值average,對每幅子圖像減去均值圖像得到新圖像。 3. 計算相關(guān)矩陣R,其元素定義為 。 4. 計算R的特征值與特征向量,計算每幅子圖像與最大特征向量的內(nèi)積,便得到編碼,即壓縮后的圖像。
上傳時間: 2013-12-23
上傳用戶:chenxichenyue
完整的模式識別庫,包括矩陣運算,各種模式識別算法,如K均值、SVM、RVM、NN、LDA等
標簽: 模式識別
上傳時間: 2016-04-02
上傳用戶:vodssv
基于BP神經(jīng)網(wǎng)絡(luò)的 參數(shù)自學(xué)習(xí)控制 (1)確定BP網(wǎng)絡(luò)的結(jié)構(gòu),即確定輸入層節(jié)點數(shù)M和隱含層節(jié)點數(shù)Q,并給出各層加權(quán)系數(shù)的初值 和 ,選定學(xué)習(xí)速率 和慣性系數(shù) ,此時k=1; (2)采樣得到rin(k)和yout(k),計算該時刻誤差error(k)=rin(k)-yout(k); (3)計算神經(jīng)網(wǎng)絡(luò)NN各層神經(jīng)元的輸入、輸出,NN輸出層的輸出即為PID控制器的三個可調(diào)參數(shù) , , ; (4)根據(jù)(3.34)計算PID控制器的輸出u(k); (5)進行神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),在線調(diào)整加權(quán)系數(shù) 和 ,實現(xiàn)PID控制參數(shù)的自適應(yīng)調(diào)整; (6)置k=k+1,返回(1)。
標簽: BP神經(jīng)網(wǎng)絡(luò) 參數(shù) BP網(wǎng)絡(luò) 學(xué)習(xí)控制
上傳時間: 2016-04-26
上傳用戶:無聊來刷下
程序名:ga_bp_predict.cpp 描述: 采用GA優(yōu)化的BP神經(jīng)網(wǎng)絡(luò)程序,用于單因素時間 序列的預(yù)測,采用了單步與多步相結(jié)合預(yù)測 說明: 采用GA(浮點編碼)優(yōu)化NN的初始權(quán)值W[j][i],V[k][j],然后再采用BP算法 優(yōu)化權(quán)值
標簽: ga_bp_predict cpp 程序 BP神經(jīng)網(wǎng)絡(luò)
上傳時間: 2014-02-18
上傳用戶:冇尾飛鉈
This function calculates Akaike s final prediction error % estimate of the average generalization error for network % models generated by NNARX, NNOE, NNARMAX1+2, or their recursive % counterparts. % % [FPE,deff,varest,H] = NNfpe(method,NetDef,W1,W2,U,Y,NN,trparms,skip,Chat) % produces the final prediction error estimate (fpe), the effective number % of weights in the network if it has been trained with weight decay, % an estimate of the noise variance, and the Gauss-Newton Hessian. %
標簽: generalization calculates prediction function
上傳時間: 2016-12-27
上傳用戶:腳趾頭
數(shù)據(jù)挖掘matlab源碼,包含機器學(xué)習(xí)領(lǐng)域中經(jīng)典算法如ID3,C4.5,NN,CARD,EM等.
標簽: matlab 數(shù)據(jù)挖掘 源碼
上傳時間: 2014-01-22
上傳用戶:chenxichenyue
The code performs a number (ITERS) of iterations of the Bailey s 6-step FFT algorithm (following the ideas in the CMU Task parallel suite). 1.- Generates an input signal vector (dgen) with size n=n1xn2 stored in row major order In this code the size of the input signal is NN=NxN (n=NN, n1=n2=N) 2.- Transpose (tpose) A to have it stored in column major order 3.- Perform independent FFTs on the rows (cffts) 4.- Scale each element of the resulting array by a factor of w[n]**(p*q) 5.- Transpose (tpose) to prepair it for the next step 6.- Perform independent FFTs on the rows (cffts) 7.- Transpose the resulting matrix The code requires nested Parallelism.
標簽: iterations performs Bailey number
上傳時間: 2014-01-05
上傳用戶:libenshu01
DeepLearnToolbox-master,含有NN,SAE,CNN,DBN等
上傳時間: 2016-07-03
上傳用戶:廣德玄武
模式識別matlab工具箱,包括SVM,ICA,PCA,NN等等模式識別算法,很有參考價值
上傳時間: 2016-12-25
上傳用戶:wwwnada
以后再也不用擔(dān)心寫爬蟲ip被封,不用擔(dān)心沒錢買代理ip的煩惱了 在使用python寫爬蟲時候,你會遇到所要爬取的網(wǎng)站有反爬取技術(shù)比如用同一個IP反復(fù)爬取同一個網(wǎng)頁,很可能會被封。如何有效的解決這個問題呢?我們可以使用代理ip,來設(shè)置代理ip池。 現(xiàn)在教大家一個可獲取大量免費有效快速的代理ip方法,我們訪問西刺免費代理ip網(wǎng)址 這里面提供了許多代理ip,但是我們嘗試過后會發(fā)現(xiàn)并不是每一個都是有效的。所以我們現(xiàn)在所要做的就是從里面提供的篩選出有效快速穩(wěn)定的ip。 以下介紹的免費獲取代理ip池的方法: 優(yōu)點:免費、數(shù)量多、有效、速度快 缺點:需要定期篩選 主要思路: 從網(wǎng)址上爬取ip地址并存儲 驗證ip是否能使用-(隨機訪問網(wǎng)址判斷響應(yīng)碼) 格式化ip地址 代碼如下: 1.導(dǎo)入包 import requests from lxml import etree import time 1 2 3 2.獲取西刺免費代理ip網(wǎng)址上的代理ip def get_all_proxy(): url = 'http://www.xicidaili.com/NN/1' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36', } response = requests.get(url, headers=headers) html_ele = etree.HTML(response.text) ip_eles = html_ele.xpath('//table[@id="ip_list"]/tr/td[2]/text()') port_ele = html_ele.xpath('//table[@id="ip_list"]/tr/td[3]/text()') proxy_list = [] for i in range(0,len(ip_eles)): proxy_str = 'http://' + ip_eles[i] + ':' + port_ele[i] proxy_list.append(proxy_str) return proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 3.驗證獲取的ip def check_all_proxy(proxy_list): valid_proxy_list = [] for proxy in proxy_list: url = 'http://www.baidu.com/' proxy_dict = { 'http': proxy } try: start_time = time.time() response = requests.get(url, proxies=proxy_dict, timeout=5) if response.status_code == 200: end_time = time.time() print('代理可用:' + proxy) print('耗時:' + str(end_time - start_time)) valid_proxy_list.append(proxy) else: print('代理超時') except: print('代理不可用--------------->'+proxy) return valid_proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 4.輸出獲取ip池 if __name__ == '__main__': proxy_list = get_all_proxy() valid_proxy_list = check_all_proxy(proxy_list) print('--'*30) print(valid_proxy_list) 1 2 3 4 5 技術(shù)能力有限歡迎提出意見,保證積極向上不斷學(xué)習(xí) ———————————————— 版權(quán)聲明:本文為CSDN博主「彬小二」的原創(chuàng)文章,遵循 CC 4.0 BY-SA 版權(quán)協(xié)議,轉(zhuǎn)載請附上原文出處鏈接及本聲明。 原文鏈接:https://blog.csdn.net/qq_39884947/article/details/86609930
上傳時間: 2019-11-15
上傳用戶:fygwz1982
蟲蟲下載站版權(quán)所有 京ICP備2021023401號-1