亚洲欧美第一页_禁久久精品乱码_粉嫩av一区二区三区免费野_久草精品视频

? 歡迎來到蟲蟲下載站! | ?? 資源下載 ?? 資源專輯 ?? 關于我們
? 蟲蟲下載站

?? crawlstateupdater.html

?? 網絡爬蟲開源代碼
?? HTML
字號:
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"><html xmlns="http://www.w3.org/1999/xhtml" xml:lang="en" lang="en"><head><meta http-equiv="content-type" content="text/html; charset=UTF-8" /><title>CrawlStateUpdater xref</title><link type="text/css" rel="stylesheet" href="../../../../stylesheet.css" /></head><body><div id="overview"><a href="../../../../../apidocs/org/archive/crawler/postprocessor/CrawlStateUpdater.html">View Javadoc</a></div><pre><a name="1" href="#1">1</a>   <em class="comment">/*<em class="comment"> CrawlStateUpdater</em></em><a name="2" href="#2">2</a>   <em class="comment"> *</em><a name="3" href="#3">3</a>   <em class="comment"> * Created on Jun 5, 2003</em><a name="4" href="#4">4</a>   <em class="comment"> *</em><a name="5" href="#5">5</a>   <em class="comment"> * Copyright (C) 2003 Internet Archive.</em><a name="6" href="#6">6</a>   <em class="comment"> *</em><a name="7" href="#7">7</a>   <em class="comment"> * This file is part of the Heritrix web crawler (crawler.archive.org).</em><a name="8" href="#8">8</a>   <em class="comment"> *</em><a name="9" href="#9">9</a>   <em class="comment"> * Heritrix is free software; you can redistribute it and/or modify</em><a name="10" href="#10">10</a>  <em class="comment"> * it under the terms of the GNU Lesser Public License as published by</em><a name="11" href="#11">11</a>  <em class="comment"> * the Free Software Foundation; either version 2.1 of the License, or</em><a name="12" href="#12">12</a>  <em class="comment"> * any later version.</em><a name="13" href="#13">13</a>  <em class="comment"> *</em><a name="14" href="#14">14</a>  <em class="comment"> * Heritrix is distributed in the hope that it will be useful,</em><a name="15" href="#15">15</a>  <em class="comment"> * but WITHOUT ANY WARRANTY; without even the implied warranty of</em><a name="16" href="#16">16</a>  <em class="comment"> * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the</em><a name="17" href="#17">17</a>  <em class="comment"> * GNU Lesser Public License for more details.</em><a name="18" href="#18">18</a>  <em class="comment"> *</em><a name="19" href="#19">19</a>  <em class="comment"> * You should have received a copy of the GNU Lesser Public License</em><a name="20" href="#20">20</a>  <em class="comment"> * along with Heritrix; if not, write to the Free Software</em><a name="21" href="#21">21</a>  <em class="comment"> * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA</em><a name="22" href="#22">22</a>  <em class="comment"> */</em><a name="23" href="#23">23</a>  <strong>package</strong> <a href="../../../../org/archive/crawler/postprocessor/package-summary.html">org.archive.crawler.postprocessor</a>;<a name="24" href="#24">24</a>  <a name="25" href="#25">25</a>  <a name="26" href="#26">26</a>  <strong>import</strong> java.util.logging.Logger;<a name="27" href="#27">27</a>  <a name="28" href="#28">28</a>  <strong>import</strong> org.apache.commons.httpclient.URIException;<a name="29" href="#29">29</a>  <strong>import</strong> org.archive.crawler.datamodel.CoreAttributeConstants;<a name="30" href="#30">30</a>  <strong>import</strong> org.archive.crawler.datamodel.CrawlHost;<a name="31" href="#31">31</a>  <strong>import</strong> org.archive.crawler.datamodel.CrawlServer;<a name="32" href="#32">32</a>  <strong>import</strong> org.archive.crawler.datamodel.CrawlURI;<a name="33" href="#33">33</a>  <strong>import</strong> org.archive.crawler.datamodel.FetchStatusCodes;<a name="34" href="#34">34</a>  <strong>import</strong> org.archive.crawler.framework.Processor;<a name="35" href="#35">35</a>  <strong>import</strong> org.archive.crawler.framework.Frontier.FrontierGroup;<a name="36" href="#36">36</a>  <a name="37" href="#37">37</a>  <a name="38" href="#38">38</a>  <em>/**<em>*</em></em><a name="39" href="#39">39</a>  <em> * A step, late in the processing of a CrawlURI, for updating the per-host</em><a name="40" href="#40">40</a>  <em> * information that may have been affected by the fetch. This will initially</em><a name="41" href="#41">41</a>  <em> * be robots and ip address info; it could include other per-host stats that</em><a name="42" href="#42">42</a>  <em> * would affect the crawl (like total pages visited at the site) as well.</em><a name="43" href="#43">43</a>  <em> *</em><a name="44" href="#44">44</a>  <em> * @author gojomo</em><a name="45" href="#45">45</a>  <em> * @version $Date: 2006-09-25 20:19:54 +0000 (Mon, 25 Sep 2006) $, $Revision: 4654 $</em><a name="46" href="#46">46</a>  <em> */</em><a name="47" href="#47">47</a>  <strong>public</strong> <strong>class</strong> <a href="../../../../org/archive/crawler/postprocessor/CrawlStateUpdater.html">CrawlStateUpdater</a> <strong>extends</strong> <a href="../../../../org/archive/crawler/framework/Processor.html">Processor</a> implements<a name="48" href="#48">48</a>          CoreAttributeConstants, <a href="../../../../org/archive/crawler/datamodel/FetchStatusCodes.html">FetchStatusCodes</a> {<a name="49" href="#49">49</a>  <a name="50" href="#50">50</a>      <strong>private</strong> <strong>static</strong> <strong>final</strong> <strong>long</strong> serialVersionUID = -1072728147960180091L;<a name="51" href="#51">51</a>  <a name="52" href="#52">52</a>      <strong>private</strong> <strong>static</strong> <strong>final</strong> Logger logger =<a name="53" href="#53">53</a>          Logger.getLogger(CrawlStateUpdater.<strong>class</strong>.getName());<a name="54" href="#54">54</a>  <a name="55" href="#55">55</a>      <strong>public</strong> <a href="../../../../org/archive/crawler/postprocessor/CrawlStateUpdater.html">CrawlStateUpdater</a>(String name) {<a name="56" href="#56">56</a>          <strong>super</strong>(name, <span class="string">"Crawl state updater"</span>);<a name="57" href="#57">57</a>      }<a name="58" href="#58">58</a>  <a name="59" href="#59">59</a>      <strong>protected</strong> <strong>void</strong> innerProcess(<a href="../../../../org/archive/crawler/datamodel/CrawlURI.html">CrawlURI</a> curi) {<a name="60" href="#60">60</a>          <em class="comment">// Tally per-server, per-host, per-frontier-class running totals</em><a name="61" href="#61">61</a>          <a href="../../../../org/archive/crawler/datamodel/CrawlServer.html">CrawlServer</a> server =<a name="62" href="#62">62</a>              getController().getServerCache().getServerFor(curi);<a name="63" href="#63">63</a>          <strong>if</strong> (server != <strong>null</strong>) {<a name="64" href="#64">64</a>              server.getSubstats().tally(curi);<a name="65" href="#65">65</a>          }<a name="66" href="#66">66</a>          <a href="../../../../org/archive/crawler/datamodel/CrawlHost.html">CrawlHost</a> host = <a name="67" href="#67">67</a>              getController().getServerCache().getHostFor(curi);<a name="68" href="#68">68</a>          <strong>if</strong> (host != <strong>null</strong>) {<a name="69" href="#69">69</a>              host.getSubstats().tally(curi);<a name="70" href="#70">70</a>          } <a name="71" href="#71">71</a>          FrontierGroup group = <a name="72" href="#72">72</a>              getController().getFrontier().getGroup(curi);<a name="73" href="#73">73</a>          group.getSubstats().tally(curi);<a name="74" href="#74">74</a>          <a name="75" href="#75">75</a>          String scheme = curi.getUURI().getScheme().toLowerCase();<a name="76" href="#76">76</a>          <strong>if</strong> (scheme.equals(<span class="string">"http"</span>) || scheme.equals(<span class="string">"https"</span>) &amp;&amp;<a name="77" href="#77">77</a>                  server != <strong>null</strong>) {<a name="78" href="#78">78</a>              <em class="comment">// Update connection problems counter</em><a name="79" href="#79">79</a>              <strong>if</strong>(curi.getFetchStatus() == S_CONNECT_FAILED) {<a name="80" href="#80">80</a>                  server.incrementConsecutiveConnectionErrors();<a name="81" href="#81">81</a>              } <strong>else</strong> <strong>if</strong> (curi.getFetchStatus() > 0){<a name="82" href="#82">82</a>                  server.resetConsecutiveConnectionErrors();<a name="83" href="#83">83</a>              }<a name="84" href="#84">84</a>  <a name="85" href="#85">85</a>              <em class="comment">// Update robots info</em><a name="86" href="#86">86</a>              <strong>try</strong> {<a name="87" href="#87">87</a>                  <strong>if</strong> (curi.getUURI().getPath() != <strong>null</strong> &amp;&amp;<a name="88" href="#88">88</a>                          curi.getUURI().getPath().equals(<span class="string">"/robots.txt"</span>)) {<a name="89" href="#89">89</a>                      <em class="comment">// Update server with robots info</em><a name="90" href="#90">90</a>                      server.updateRobots(curi);<a name="91" href="#91">91</a>                  }<a name="92" href="#92">92</a>              }<a name="93" href="#93">93</a>              <strong>catch</strong> (URIException e) {<a name="94" href="#94">94</a>                  logger.severe(<span class="string">"Failed get path on "</span> + curi.getUURI());<a name="95" href="#95">95</a>              }<a name="96" href="#96">96</a>          }<a name="97" href="#97">97</a>      }<a name="98" href="#98">98</a>  }</pre><hr/><div id="footer">This page was automatically generated by <a href="http://maven.apache.org/">Maven</a></div></body></html>

?? 快捷鍵說明

復制代碼 Ctrl + C
搜索代碼 Ctrl + F
全屏模式 F11
切換主題 Ctrl + Shift + D
顯示快捷鍵 ?
增大字號 Ctrl + =
減小字號 Ctrl + -
亚洲欧美第一页_禁久久精品乱码_粉嫩av一区二区三区免费野_久草精品视频
色网站国产精品| 国产在线视频一区二区三区| 免费精品视频在线| 精品国产在天天线2019| 色婷婷综合久久久久中文一区二区| 一区二区三区四区精品在线视频| 欧美视频精品在线观看| 韩国一区二区三区| 国精产品一区一区三区mba视频 | 亚洲一区二区三区四区的| av成人动漫在线观看| 欧美在线制服丝袜| 成人av电影免费观看| 日韩综合小视频| 欧美一区中文字幕| 午夜影视日本亚洲欧洲精品| 精品国产一区二区精华| 欧美精品v日韩精品v韩国精品v| 欧美国产视频在线| 26uuu精品一区二区三区四区在线 26uuu精品一区二区在线观看 | 国产精品一线二线三线精华| 另类调教123区| 91丨九色丨黑人外教| 91女人视频在线观看| 亚洲欧美日韩一区| 亚洲视频在线一区| 欧美韩日一区二区三区| 国产精品国产三级国产普通话99 | 日本在线不卡一区| 丝袜诱惑制服诱惑色一区在线观看| 综合精品久久久| 2023国产一二三区日本精品2022| 久久免费美女视频| 中文字幕在线不卡视频| 26uuu亚洲综合色| 国产精品色一区二区三区| 91精品国产免费久久综合| 欧美日韩国产精选| 欧美疯狂做受xxxx富婆| 欧美午夜片在线看| 欧美色视频一区| 国产午夜精品一区二区三区嫩草| 欧美性受xxxx黑人xyx| 91成人国产精品| 91久久精品一区二区三区| 日韩午夜在线观看| 欧美在线免费观看视频| 91在线丨porny丨国产| 91极品美女在线| 精品久久一区二区| 国产精品免费av| 综合久久给合久久狠狠狠97色| 免费成人av资源网| 91毛片在线观看| 欧美一区二区三区精品| 欧美精品777| 日本精品裸体写真集在线观看 | 欧美日韩一二三| 日韩欧美综合在线| 国产精品美女久久久久久久| 日韩欧美中文一区| 国产午夜亚洲精品羞羞网站| 亚洲高清一区二区三区| 国产精品久久久久aaaa樱花| 日本91福利区| 91浏览器入口在线观看| 91成人看片片| 精品亚洲国产成人av制服丝袜| 97se亚洲国产综合在线| 丝袜诱惑亚洲看片| 九九视频精品免费| 成人午夜短视频| 成人激情电影免费在线观看| 欧美日韩综合在线| 久久精品综合网| 99视频精品在线| 亚洲精品在线观| 国产目拍亚洲精品99久久精品| 一区二区三区四区亚洲| 亚洲午夜免费电影| 国产sm精品调教视频网站| 99久久精品久久久久久清纯| 欧美日韩国产另类不卡| 国产精品成人免费在线| 成人午夜电影久久影院| 欧美一区二区三区免费视频| 综合在线观看色| 伊人性伊人情综合网| 亚洲v精品v日韩v欧美v专区| 欧美视频一区二区三区在线观看| 最新久久zyz资源站| 亚洲精品伦理在线| 国产三级一区二区| 九色porny丨国产精品| 欧美一级在线视频| 亚洲一区在线观看免费| av在线不卡电影| 欧美大胆人体bbbb| 国产乱子伦视频一区二区三区| 在线观看网站黄不卡| 久久精品夜夜夜夜久久| 国产成人综合视频| 久久久亚洲欧洲日产国码αv| 日韩精品免费视频人成| 日本精品一级二级| 国产精品夜夜爽| 国产精品免费丝袜| 99re亚洲国产精品| 国产精品福利一区二区| 国内成人自拍视频| 欧美日产在线观看| 精品国产污污免费网站入口 | 中文无字幕一区二区三区 | 在线不卡的av| 一区二区三区中文在线观看| 国产高清一区日本| 自拍偷拍亚洲激情| 国产精品国产三级国产aⅴ原创| ww久久中文字幕| 久久99久久99小草精品免视看| 91在线云播放| 麻豆成人av在线| 国产精品亚洲一区二区三区在线 | 专区另类欧美日韩| 日韩午夜三级在线| 免费一区二区视频| 精品久久久久久久久久久久久久久 | 久久久不卡影院| 成人免费观看视频| 日韩欧美中文一区二区| 欧美成人一级视频| 天天综合网 天天综合色| 欧美久久久影院| 久久成人免费网站| 精品国产污污免费网站入口 | 中国色在线观看另类| 欧美日韩在线观看一区二区 | 日本成人在线看| 国产午夜亚洲精品羞羞网站| 成人av在线播放网址| 亚洲一区二区中文在线| 成人午夜视频在线观看| 国产精品视频一区二区三区不卡 | 粉嫩一区二区三区性色av| 国产精品萝li| 在线精品视频小说1| 日韩av成人高清| 国产精品大尺度| 欧美高清视频www夜色资源网| 日本人妖一区二区| 精品视频一区二区三区免费| 亚洲国产日韩一级| 2021中文字幕一区亚洲| 91老师片黄在线观看| 国产一本一道久久香蕉| 国产精品久久久久久亚洲伦| 欧美在线制服丝袜| 久久99精品久久只有精品| 亚洲三级在线看| 欧美精品久久一区二区三区| 极品少妇一区二区三区精品视频| 亚洲视频免费在线| 国产精品久久夜| 国产亚洲成av人在线观看导航| 高清免费成人av| 三级在线观看一区二区| 中文字幕二三区不卡| 91精品综合久久久久久| 成人黄色电影在线| 成人黄色软件下载| 亚洲成a人片在线观看中文| 国产精品久久久久久久久动漫 | 亚洲国产高清不卡| 日韩一区二区中文字幕| 一本色道久久加勒比精品| 激情综合网天天干| 婷婷中文字幕综合| 亚洲靠逼com| 国产欧美一区二区在线观看| 亚洲人吸女人奶水| 亚洲欧美日本在线| 中文字幕欧美三区| 日韩一区和二区| 在线影视一区二区三区| 亚洲一区日韩精品中文字幕| 久久精品人人爽人人爽| 亚洲国产高清aⅴ视频| 久久免费偷拍视频| 日韩精品中文字幕在线不卡尤物| 色拍拍在线精品视频8848| 豆国产96在线|亚洲| 免费xxxx性欧美18vr| 亚洲午夜免费视频| 亚洲国产精品久久久久秋霞影院| 综合久久一区二区三区| 国产黄色精品视频| 国产精品综合视频| 国产·精品毛片| 国产精品一区一区| 99在线精品一区二区三区|