Machine LEarning is about designing algorithms that automatically extract valuable information from data. The emphasis here is on “automatic”, i.e., machine LEarning is concerned about general-purpose methodologies that can be applied to many datasets, while producing something that is mean- ingful. There are three concepts that are at the core of machine LEarning: data, a model, and LEarning.
上傳時(shí)間: 2020-06-10
上傳用戶:shancjb
LEarning Python 第5版電子版書籍,正規(guī)版本,不是掃描的哦,關(guān)于這本書的內(nèi)容不解釋了,懂Python的應(yīng)該知道,很不錯(cuò)的一本書,不過非常考驗(yàn)英文水平。
標(biāo)簽: python
上傳時(shí)間: 2022-07-02
上傳用戶:xsr1983
圖像配準(zhǔn)理論及算法研究.pdf cnn_tutorial.pdf Deep LEarning(深度學(xué)習(xí))學(xué)習(xí)筆記整理.pdf 00.神經(jīng)?絡(luò)與深度學(xué)習(xí).pdf deep LEarning.pdf 深度學(xué)習(xí)方法及應(yīng)用PDF高清晰完整版.pdf 斯坦福大學(xué)-深度學(xué)習(xí)基礎(chǔ)教程.pdf 深度學(xué)習(xí)基礎(chǔ)教程.pdf deep+LEarning.pdf 深度學(xué)習(xí) 中文版 ---文字版.pdf 神經(jīng)網(wǎng)絡(luò)與機(jī)器學(xué)習(xí)(原書第3版).pdf
標(biāo)簽: 低壓 電工 實(shí)用技術(shù) 問答
上傳時(shí)間: 2013-06-07
上傳用戶:eeworm
h.264文檔學(xué)習(xí),參考資料,比較全,內(nèi)容新-h.264 document LEarning
標(biāo)簽: 264
上傳時(shí)間: 2013-08-04
上傳用戶:czl10052678
VC入門學(xué)習(xí)指導(dǎo),看了一下覺得有必要推薦一下,需要的話可以下來看看!-Introduction to VC LEarning guide
標(biāo)簽: VC
上傳時(shí)間: 2013-06-21
上傳用戶:bakdesec
·【作 者】Ayala, Kenneth J. [同作者作品] 【出 版 社】 Thomson LEarning 【書 號(hào)】 140186158X 【出版日期】 2005 年7月 【頁 碼】 412 本書全面論述8051系列的微控制器的內(nèi)部結(jié)構(gòu)、指令系統(tǒng)、尋址方式、存儲(chǔ)分配以及與各種實(shí)際外圍器件的接口技術(shù)
標(biāo)簽: nbsp Microcontroller Embedded Assembly
上傳時(shí)間: 2013-04-24
上傳用戶:zhengzg
The DSP Design Flow workshop provides an introduction to the advanced tools you need to design and implement DSP algorithms targeting FPGAs. This intermediate workshop in implementing DSP functions focuses on LEarning how to use System Generator for DSP,
標(biāo)簽: workshop provides Design Flow
上傳時(shí)間: 2013-09-02
上傳用戶:joheace
本課題主要研究對(duì)象為數(shù)字預(yù)失真技術(shù)中的功放模型的建立及數(shù)字預(yù)失真算法的研究。功放的數(shù)學(xué)模型主要分為無記憶模型和記憶模型,分析了不同模型的參數(shù)估計(jì)的方法。針對(duì)以往常見的模型反轉(zhuǎn)數(shù)字預(yù)失真算法,課題分析并使用了新穎的間接學(xué)習(xí)(indirect LEarning)數(shù)字預(yù)失真算法,從而有效避免了無法對(duì)功放模型進(jìn)行求逆的缺陷,并在此架構(gòu)下仿真了不同功放模型的參數(shù)估計(jì)對(duì)于數(shù)字預(yù)失真效果的影響。針對(duì)WCDMA移動(dòng)通信基站系統(tǒng)中使用的寬帶功率放大器,使用ADS和MATLAB軟件聯(lián)合仿真的形式來評(píng)估整個(gè)DPD系統(tǒng)的性能并使用實(shí)際功放進(jìn)行了測試。
標(biāo)簽: 寬帶 射頻功率放大器 數(shù)字預(yù)失真 技術(shù)研究
上傳時(shí)間: 2013-10-12
上傳用戶:問題問題
提出了一種改進(jìn)的LSM-ALSM子空間模式識(shí)別方法,將LSM的旋轉(zhuǎn)策略引入ALSM,使子空間之間互不關(guān)聯(lián)的情況得到改善,提高了ALSM對(duì)相似樣本的區(qū)分能力。討論中以性能函數(shù)代替經(jīng)驗(yàn)函數(shù)來確定拒識(shí)規(guī)則的參數(shù),實(shí)現(xiàn)了識(shí)別率、誤識(shí)率與拒識(shí)率之間的最佳平衡;通過對(duì)有限字符集的實(shí)驗(yàn)結(jié)果表明,LSM-ALSM算法有效地改善了分類器的識(shí)別率和可靠性。關(guān) 鍵 詞 學(xué)習(xí)子空間; 性能函數(shù); 散布矩陣; 最小描述長度在子空間模式識(shí)別方法中,一個(gè)線性子空間代表一個(gè)模式類別,該子空間由反映類別本質(zhì)的一組特征矢量張成,分類器根據(jù)輸入樣本在各子空間上的投影長度將其歸為相應(yīng)的類別。典型的子空間算法有以下三種[1, 2]:CLAFIC(Class-feature Information Compression)算法以相關(guān)矩陣的部分特征向量來構(gòu)造子空間,實(shí)現(xiàn)了特征信息的壓縮,但對(duì)樣本的利用為一次性,不能根據(jù)分類結(jié)果進(jìn)行調(diào)整和學(xué)習(xí),對(duì)樣本信息的利用不充分;學(xué)習(xí)子空間方法(Leaning Subspace Method, LSM)通過旋轉(zhuǎn)子空間來拉大樣本所屬類別與最近鄰類別的距離,以此提高分類能力,但對(duì)樣本的訓(xùn)練順序敏感,同一樣本訓(xùn)練的順序不同對(duì)子空間構(gòu)造的影響就不同;平均學(xué)習(xí)子空間算法(Averaged LEarning Subspace Method, ALSM)是在迭代訓(xùn)練過程中,用錯(cuò)誤分類的樣本去調(diào)整散布矩陣,訓(xùn)練結(jié)果與樣本輸入順序無關(guān),所有樣本平均參與訓(xùn)練,其不足之處是各模式的子空間之間相互獨(dú)立。針對(duì)以上問題,本文提出一種改進(jìn)的子空間模式識(shí)別方法。子空間模式識(shí)別的基本原理1.1 子空間的分類規(guī)則子空間模式識(shí)別方法的每一類別由一個(gè)子空間表示,子空間分類器的基本分類規(guī)則是按矢量在各子空間上的投影長度大小,將樣本歸類到最大長度所對(duì)應(yīng)的類別,在類x()iω的子空間上投影長度的平方為()211,2,,()argmax()jMTkkjpg===Σx (1)式中 函數(shù)稱為分類函數(shù);為子空間基矢量。兩類的分類情況如圖1所示。
上傳時(shí)間: 2013-12-25
上傳用戶:熊少鋒
最新的支持向量機(jī)工具箱,有了它會(huì)很方便 1. Find time to write a proper list of things to do! 2. Documentation. 3. Support Vector Regression. 4. Automated model selection. REFERENCES ========== [1] V.N. Vapnik, "The Nature of Statistical LEarning Theory", Springer-Verlag, New York, ISBN 0-387-94559-8, 1995. [2] J. C. Platt, "Fast training of support vector machines using sequential minimal optimization", in Advances in Kernel Methods - Support Vector LEarning, (Eds) B. Scholkopf, C. Burges, and A. J. Smola, MIT Press, Cambridge, Massachusetts, chapter 12, pp 185-208, 1999. [3] T. Joachims, "Estimating the Generalization Performance of a SVM Efficiently", LS-8 Report 25, Universitat Dortmund, Fachbereich Informatik, 1999.
上傳時(shí)間: 2013-12-16
上傳用戶:亞亞娟娟123
蟲蟲下載站版權(quán)所有 京ICP備2021023401號(hào)-1