亚洲欧美第一页_禁久久精品乱码_粉嫩av一区二区三区免费野_久草精品视频

蟲蟲首頁| 資源下載| 資源專輯| 精品軟件
登錄| 注冊

sigmoid

  • NN Functions a program in Lisp to demonstrate working of an artificial neuron. (Enter an input vect

    NN Functions a program in Lisp to demonstrate working of an artificial neuron. (Enter an input vector X and weight vector W. Calculate weighted sum XW. Transform this using signal or activation functions like logistic, threshold, hyperbolic-tangent, linear, exponential, sigmoid or some other functions (syntax provided) and display the output).

    標簽: demonstrate artificial Functions program

    上傳時間: 2013-12-30

    上傳用戶:hfmm633

  • 2013遺傳算法工具箱

    % 生成訓練樣本集 clear all; clc; P=[110 0.807 240 0.2 15 1 18 2 1.5; 110 2.865 240 0.1 15 2 12 1 2; 110 2.59 240 0.1 12 4 24 1 1.5; 220 0.6 240 0.3 12 3 18 2 1; 220 3 240 0.3 25 3 21 1 1.5; 110 1.562 240 0.3 15 3 18 1 1.5; 110 0.547 240 0.3 15 1 9 2 1.5]; 0 1.318 300 0.1 15 2 18 1 2]; T=[54248 162787 168380 314797; 28614 63958 69637 82898; 86002 402710 644415 328084; 230802 445102 362823 335913; 60257 127892 76753 73541; 34615 93532 80762 110049; 56783 172907 164548 144040]; @907 117437 120368 130179]; m=max(max(P)); n=max(max(T)); P=P'/m; T=T'/n; %-------------------------------------------------------------------------% pr(1:9,1)=0; %輸入矢量的取值范圍矩陣 pr(1:9,2)=1; bpnet=newff(pr,[12 4],{'logsig', 'logsig'}, 'traingdx', 'learngdm'); %建立BP神經網絡, 12個隱層神經元,4個輸出神經元 %tranferFcn屬性 'logsig' 隱層采用sigmoid傳輸函數 %tranferFcn屬性 'logsig' 輸出層采用sigmoid傳輸函數 %trainFcn屬性 'traingdx' 自適應調整學習速率附加動量因子梯度下降反向傳播算法訓練函數 %learn屬性 'learngdm' 附加動量因子的梯度下降學習函數  net.trainParam.epochs=1000;%允許最大訓練步數2000步 net.trainParam.goal=0.001; %訓練目標最小誤差0.001 net.trainParam.show=10; %每間隔100步顯示一次訓練結果 net.trainParam.lr=0.05; %學習速率0.05 bpnet=train(bpnet,P,T); %------------------------------------------------------------------------- p=[110 1.318 300 0.1 15 2 18 1 2]; p=p'/m; r=sim(bpnet,p); R=r'*n; display(R);

    標簽: 2013 算法 工具箱

    上傳時間: 2016-05-28

    上傳用戶:shanqiu

  • 深度學習的數學,中文版,高清文字pdf

    學python必備,數學得搞好  ,嘿嘿嘿本書的目的在于提供理解神經網絡所需的數學基礎知識。為了便于 讀者直觀地理解,書中使用大量圖片,并通過具體示例來介紹。因 此,本書將數學的嚴謹性放在第二位。 深度學習的世界是豐富多彩的,本書主要考慮階層型神經網絡和卷 積神經網絡在圖像識別中的應用。 本書將 sigmoid 函數作為激活函數,除此之外也可以考慮其他函 數。 本書以最小二乘法作為數學上的最優化的基礎,除此之外也可以考 慮其他方法。 神經網絡可分為有監督學習和無監督學習兩類。本書主要講解有監 督學習。 人工智能相關的文獻之所以難讀,其中一個原因就是各文獻所用的 符號不統一。本書采用的是相關文獻中常用的符號。 本書使用 Excel 進行理論驗證。Excel 是一個非常優秀的工具,能 夠在工作表上可視化地展現邏輯,有助于我們理解。因此,相應的 項目需要以 Excel 的基礎知識為前提。

    標簽: 深度學習 python

    上傳時間: 2022-06-22

    上傳用戶:kingwide

  • 人工智能:神經網絡與深度學習

    神經網絡神經網絡是指用大量的簡單計算單元構成的非線性系統,它在一定程度上模仿了人腦神經系統的信息處理、存儲和檢索功能,是對人腦神經網絡的某種簡化、抽象和模擬。1943年心理學家McCulloch和數學家Pitts合作提出了神經元的數學模型M-P神經元模型,證明了單個神經元能執行邏輯功能,從此開創了神經科學理論研究的時代。M-P模型,是按照生物神經元的結構和工作原理構造出來的一個抽象和簡化了的神經元模型。權重當輸入進入神經元時,它會乘以一個權重。例如,如果一個神經元有兩個輸入,則每個輸入都將具有分配給它的一個關聯權重。隨機初始化權重,并在模型訓練過程中更新這些權重。偏置除了權重之外,另一個被應用于輸入的線性分量被稱為偏置。它被加到權重與輸入相乘的結果中。添加偏置的目的是改變權重與輸入相乘所得結果的范圍。激活函數激活函數的主要作用是加入非線性因素,以解決線性模型表達能力不足的缺陷,在整個神經網絡中至關重要。常用的激活函數有sigmoid、Tanh、ReLU。

    標簽: 人工智能 神經網絡 深度學習

    上傳時間: 2022-06-24

    上傳用戶:得之我幸78

主站蜘蛛池模板: 贵德县| 海门市| 日土县| 石嘴山市| 交城县| 玛多县| 保亭| 西林县| 吉隆县| 邯郸县| 喀喇沁旗| 谢通门县| 梓潼县| 海兴县| 兴文县| 台前县| 河曲县| 皮山县| 兴和县| 宁强县| 临海市| 喀什市| 双桥区| 葫芦岛市| 玉龙| 西盟| 隆安县| 蒲城县| SHOW| 平江县| 柞水县| 原阳县| 楚雄市| 横山县| 阿坝县| 山东省| 珲春市| 安多县| 松阳县| 义马市| 那曲县|