用Python做科學計算
上傳時間: 2018-11-09
上傳用戶:pzhou1983
前段時間偶然接觸到hopfield(離散型)神經網絡,所以整合一些知識點以及python實現代碼,供大家批評指正。
標簽: hopfield python DHNN 神經網絡 代碼
上傳時間: 2018-11-19
上傳用戶:libuqing
《模式分類》書上第三章47題的含有數據缺失情況下的EM算法,python
標簽: EM算法
上傳時間: 2018-11-20
上傳用戶:Rachel
Python編程入門、進階、提高精品資源,非常適合新手學習
上傳時間: 2019-05-28
上傳用戶:zqyk8k8
《Python深度學習》2018源代碼,想提高Python學習可以拿下看看。
上傳時間: 2019-06-01
上傳用戶:zqyk8k8
python基礎大全,總結驚精細,函數,python flash編程,python web基礎
標簽: python
上傳時間: 2019-06-05
上傳用戶:jinqiliang
改壓縮文件包含車牌數據集,車牌識別的python程序代碼,使用CNN卷積網絡實現
上傳時間: 2019-06-28
上傳用戶:WSRY5220
《笨辦法學 Python》(Learn Python The Hard Way,簡稱 LPTHW)是 Zed Shaw 編寫的一本 Python 入門書籍。適合對計算機了解不多,沒有學過編程,但對編程感興趣的朋友學習使用。這本書以 習題的方式引導讀者一步一步學習編程,從簡單的打印一直講到完整項目的實現。也許讀完這本書并不 意味著你已經學會了編程,但至少你會對編程語言以及編程這個行業有一個初步的了解。
標簽: Python
上傳時間: 2019-10-28
上傳用戶:shangqinghua
以后再也不用擔心寫爬蟲ip被封,不用擔心沒錢買代理ip的煩惱了 在使用python寫爬蟲時候,你會遇到所要爬取的網站有反爬取技術比如用同一個IP反復爬取同一個網頁,很可能會被封。如何有效的解決這個問題呢?我們可以使用代理ip,來設置代理ip池。 現在教大家一個可獲取大量免費有效快速的代理ip方法,我們訪問西刺免費代理ip網址 這里面提供了許多代理ip,但是我們嘗試過后會發現并不是每一個都是有效的。所以我們現在所要做的就是從里面提供的篩選出有效快速穩定的ip。 以下介紹的免費獲取代理ip池的方法: 優點:免費、數量多、有效、速度快 缺點:需要定期篩選 主要思路: 從網址上爬取ip地址并存儲 驗證ip是否能使用-(隨機訪問網址判斷響應碼) 格式化ip地址 代碼如下: 1.導入包 import requests from lxml import etree import time 1 2 3 2.獲取西刺免費代理ip網址上的代理ip def get_all_proxy(): url = 'http://www.xicidaili.com/nn/1' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36', } response = requests.get(url, headers=headers) html_ele = etree.HTML(response.text) ip_eles = html_ele.xpath('//table[@id="ip_list"]/tr/td[2]/text()') port_ele = html_ele.xpath('//table[@id="ip_list"]/tr/td[3]/text()') proxy_list = [] for i in range(0,len(ip_eles)): proxy_str = 'http://' + ip_eles[i] + ':' + port_ele[i] proxy_list.append(proxy_str) return proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 3.驗證獲取的ip def check_all_proxy(proxy_list): valid_proxy_list = [] for proxy in proxy_list: url = 'http://www.baidu.com/' proxy_dict = { 'http': proxy } try: start_time = time.time() response = requests.get(url, proxies=proxy_dict, timeout=5) if response.status_code == 200: end_time = time.time() print('代理可用:' + proxy) print('耗時:' + str(end_time - start_time)) valid_proxy_list.append(proxy) else: print('代理超時') except: print('代理不可用--------------->'+proxy) return valid_proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 4.輸出獲取ip池 if __name__ == '__main__': proxy_list = get_all_proxy() valid_proxy_list = check_all_proxy(proxy_list) print('--'*30) print(valid_proxy_list) 1 2 3 4 5 技術能力有限歡迎提出意見,保證積極向上不斷學習 ———————————————— 版權聲明:本文為CSDN博主「彬小二」的原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接及本聲明。 原文鏈接:https://blog.csdn.net/qq_39884947/article/details/86609930
上傳時間: 2019-11-15
上傳用戶:fygwz1982
《Python 3反爬蟲原理與繞過實戰》書籍源碼
上傳時間: 2020-03-27
上傳用戶:逆天騷年