palm編成,這種書很少,有興趣看看 Title: Palm Programming: The Developer s Guide URL: http://safari.oreilly.com/JVXSL.asp?x=1&mode=section&sortKey=rank&sortOrder=desc&view=book&xmlid=1-56592-525-4&open=false&srchText=palm+programming&code=&h=&m=&l=1&catid=&s=1&b=1&f=1&t=1&c=1&u=1&page=0 ISBN: 1-56592-525-4 Author: Julie McKeehan/ Neil Rhodes Publisher: O Reilly Page: 478 Edition: 1st edition (December 1998) Catalog: PDA programming / Palm Format: pdf Size: 2.06M Supplier: Summary: Emerging as the bestselling hand-held computers of all time, PalmPilots have spawned intense developer activity and a fanatical following. Used by Palm in their developer training, this tutorial-style book shows intermediate to experienced C programmers how to build a Palm application from the ground up. Includes a CD-ROM with source code and third-party developer tools
標(biāo)簽: Programming Developer oreilly safari
上傳時(shí)間: 2013-12-10
上傳用戶:litianchu
Copyright Copyright © 2004 O Reilly Media, Inc. Printed in the United States of America. Published by O Reilly MediaInc., 1005 Gravenstein Highway North, Sebastopol, CA 95472. O Reilly & Associates books may be purchased for educational, business, or sales promotional use. Online editions are also available for most titles (http://safari.oreilly.com). For more information, contact our corporate/institutional sales department: (800) 998-9938 or corporate@oreilly.com. Nutshell Handbook, the Nutshell Handbook logo, and the O Reilly logo are registered trademarks of O Reilly Media, Inc The Cookbook series designations, Java Servlet and JSP Cookbook, the image of a fennec fox, and related trade dress are trademarks of O Reilly & Associates, Inc. Java and all Java-based trademarks and logos are trademarks or registered trademarks of Sun Microsystems, Inc., in the United States
標(biāo)簽: Copyright America Printed Reilly
上傳時(shí)間: 2014-08-20
上傳用戶:lps11188
AJAX入門之XMLHttpRequest慨述 在使用XMLHttpRequest對(duì)象發(fā)送請(qǐng)求和處理響應(yīng)之前,必須先用JavaScript創(chuàng)建一個(gè)XMLHttpRequest對(duì)象。由于XMLHttpRequest不是一個(gè)W3C標(biāo)準(zhǔn),所以可以采用多種方法使用JavaScript來創(chuàng)建XMLHttpRequest的實(shí)例。 Internet Explorer把XMLHttpRequest實(shí)現(xiàn)為一個(gè)ActiveX對(duì)象,其他瀏覽器(如Firefox、safari和Opera)把它實(shí)現(xiàn)為一個(gè)本地JavaScript對(duì)象。由于存在這些差別,JavaScript代碼中必須包含有關(guān)的邏輯,從而使用ActiveX技術(shù)或者使用本地JavaScript對(duì)象技術(shù)來創(chuàng)建XMLHttpRequest的一個(gè)實(shí)例。
標(biāo)簽: XMLHttpRequest AJAX 對(duì)象 發(fā)送
上傳時(shí)間: 2014-11-23
上傳用戶:trepb001
YESIR520是一個(gè)提供個(gè)性化主頁服務(wù)的網(wǎng)站,類似IGOOGLE。您不僅可以聚合RSS和ATOM的頻道,而且可以聚合google gadget和QQ的個(gè)人空間。 以拖拽的方式調(diào)整布局,方便而且直觀。網(wǎng)站信息自動(dòng)更新,無需手動(dòng)刷新頁面。該網(wǎng)站基于web2.0,實(shí)現(xiàn)了網(wǎng)站結(jié)構(gòu)拖拽式布局,網(wǎng)站內(nèi)容動(dòng)態(tài)式聚合,網(wǎng)站樣式個(gè)性化切換。 該項(xiàng)目在IE6、IE7、FireFox 、chrome 、safari測(cè)試通過。
上傳時(shí)間: 2017-05-16
上傳用戶:獨(dú)孤求源
以后再也不用擔(dān)心寫爬蟲ip被封,不用擔(dān)心沒錢買代理ip的煩惱了 在使用python寫爬蟲時(shí)候,你會(huì)遇到所要爬取的網(wǎng)站有反爬取技術(shù)比如用同一個(gè)IP反復(fù)爬取同一個(gè)網(wǎng)頁,很可能會(huì)被封。如何有效的解決這個(gè)問題呢?我們可以使用代理ip,來設(shè)置代理ip池。 現(xiàn)在教大家一個(gè)可獲取大量免費(fèi)有效快速的代理ip方法,我們?cè)L問西刺免費(fèi)代理ip網(wǎng)址 這里面提供了許多代理ip,但是我們嘗試過后會(huì)發(fā)現(xiàn)并不是每一個(gè)都是有效的。所以我們現(xiàn)在所要做的就是從里面提供的篩選出有效快速穩(wěn)定的ip。 以下介紹的免費(fèi)獲取代理ip池的方法: 優(yōu)點(diǎn):免費(fèi)、數(shù)量多、有效、速度快 缺點(diǎn):需要定期篩選 主要思路: 從網(wǎng)址上爬取ip地址并存儲(chǔ) 驗(yàn)證ip是否能使用-(隨機(jī)訪問網(wǎng)址判斷響應(yīng)碼) 格式化ip地址 代碼如下: 1.導(dǎo)入包 import requests from lxml import etree import time 1 2 3 2.獲取西刺免費(fèi)代理ip網(wǎng)址上的代理ip def get_all_proxy(): url = 'http://www.xicidaili.com/nn/1' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 safari/537.36', } response = requests.get(url, headers=headers) html_ele = etree.HTML(response.text) ip_eles = html_ele.xpath('//table[@id="ip_list"]/tr/td[2]/text()') port_ele = html_ele.xpath('//table[@id="ip_list"]/tr/td[3]/text()') proxy_list = [] for i in range(0,len(ip_eles)): proxy_str = 'http://' + ip_eles[i] + ':' + port_ele[i] proxy_list.append(proxy_str) return proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 3.驗(yàn)證獲取的ip def check_all_proxy(proxy_list): valid_proxy_list = [] for proxy in proxy_list: url = 'http://www.baidu.com/' proxy_dict = { 'http': proxy } try: start_time = time.time() response = requests.get(url, proxies=proxy_dict, timeout=5) if response.status_code == 200: end_time = time.time() print('代理可用:' + proxy) print('耗時(shí):' + str(end_time - start_time)) valid_proxy_list.append(proxy) else: print('代理超時(shí)') except: print('代理不可用--------------->'+proxy) return valid_proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 4.輸出獲取ip池 if __name__ == '__main__': proxy_list = get_all_proxy() valid_proxy_list = check_all_proxy(proxy_list) print('--'*30) print(valid_proxy_list) 1 2 3 4 5 技術(shù)能力有限歡迎提出意見,保證積極向上不斷學(xué)習(xí) ———————————————— 版權(quán)聲明:本文為CSDN博主「彬小二」的原創(chuàng)文章,遵循 CC 4.0 BY-SA 版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。 原文鏈接:https://blog.csdn.net/qq_39884947/article/details/86609930
上傳時(shí)間: 2019-11-15
上傳用戶:fygwz1982
蟲蟲下載站版權(quán)所有 京ICP備2021023401號(hào)-1