<em id="0a85b"><option id="0a85b"></option></em>

<abbr id="0a85b"></abbr>

      <nobr id="0a85b"></nobr>
        <tr id="0a85b"></tr>
        9久久伊人精品综合,亚洲一区精品视频在线,成 人免费va视频,国产一区二区三区黄网,99国产精品永久免费视频,亚洲毛片多多影院,精品久久久无码人妻中文字幕,无码国产欧美一区二区三区不卡
        學習啦 > 學習電腦 > 操作系統 > Linux教程 > 什么是wget命令

        什么是wget命令

        時間: 若木635 分享

        什么是wget命令

        wget

        wget是一個命令行工具——是歷史上最快的單線程傳輸工具,用于下載網站/批量文件,支持HTTP和FTP。 它的任務就是獲取互聯網。首先,基本上所有的面向個人計算機的Linux都帶 wget。

        wget是一個從網絡上自動下載文件的自由工具。它支持HTTP,HTTPS和FTP協議,可以使用HTTP代理.

        所謂的自動下載是指,wget可以在用戶退出系統的之后在后臺執行。這意味這你可以登錄系統,啟動一個wget下載任務,然后退出系統,wget將在后臺執行直到任務完成,相對于其它大部分瀏覽器在下載大量數據時需要用戶一直的參與,這省去了極大的麻煩。

        wget可以跟蹤HTML頁面上的鏈接依次下載來創建遠程服務器的本地版本,完全重建原始站點的目錄結構。這又常被稱作"遞歸下載"。在遞歸下載的時候,wget遵循Robot Exclusion標準(/robots.txt). wget可以在下載的同時,將鏈接轉換成指向本地文件,以方便離線瀏覽。

        wget非常穩定,它在帶寬很窄的情況下和不穩定網絡中有很強的適應性.如果是由于網絡的原因下載失敗,wget會不斷的嘗試,直到整個文件下載完畢。如果是服務器打斷下載過程,它會再次聯到服務器上從停止的地方繼續下載。這對從那些限定了鏈接時間的服務器上下載大文件非常有用

        命令格式

         wget [options] [URL]

        用wget做站點鏡像

         wget -r -p -np -k [url]

        # 或者

         wget -m [url] 

        在不穩定的網絡上下載一個部分下載的文件,以及在空閑時段下載

         wget -t 0 -w 31 -c [url] -o down.log &

        從filelist讀入要下載的文件列表

         wget -t 0 -w 31 -c -B [url] -i filelist.txt -o down.log & 

        上面的代碼還可以用來在網絡比較空閑的時段進行下載。我的用法是:在mozilla中將不方便當時下載的URL鏈接拷貝到內存中然后粘貼到文件filelist.txt中,在晚上要出去系統前執行上面代碼的第二條。

        使用代理下載

         wget -Y on -p -k [url]

        代理可以在環境變量或wgetrc文件中設定

        在環境變量中設定代理

         export PROXY=http://211.90.168.94:8080/

        在~/.wgetrc中設定代理

         http_proxy = http://proxy.yoyodyne.com:18023/ ftp_proxy = http://proxy.yoyodyne.com:18023/

        wget示例

        如果我們想下載ftp里面某個目錄里面的所有文件,

         wget -r ftp://10.8.8.8/movie/ 

        呵呵,等吧!下完了,發覺有些不對勁,怎么出來個10.8.8.8的目錄,進去看看,又是一個movie,哦,wget將目錄結構和網站標題都給記錄下來了,不要??沒有問題!比如說還是這個例子

         wget -r -nd ftp://10.8.8.8/movie/ 

        結果什么目錄都沒有了,faint!怎么會這樣?呵呵,你如果想要這樣就讓它這樣吧,否則使用

         wget -r -nH ftp://10.8.8.8/movie/ 

        恩?movie也不要?OK,那就這樣

         wget -r -nH --cut-dirs=1 ftp://10.8.8.8/movie/ 

        斷線了?超時了? 加個 -c 繼續

         wget -c -r -nH --cut-dirs=1 ftp://10.8.8.8/movie/ 

        我們下載這里面所有的宏包,呵呵

         wget -r -k http://www.ctan.org/tex-archive/macros/latex/ 

        -k表示將連接轉換為本地連接。但是現在同樣有上面的問題啊,那就把你需要的加上吧,另外也許你根本不需要向下走那么多層,比如,我們就要到第二層,那么

         wget -r -l2 -k http://www.ctan.org/tex-archive/macros/latex/ 

        現在新的問題是,由于網頁有一個排序功能,很討厭,因為下載的時候把網頁重復了好多次,那么我們可使用-A和-R開關控制下載類型,并且可以使用通配符,呵呵,現在隨心所欲了吧

         wget -r -R ".htm\?*" -k http://www.ctan.org/tex-archive/macros/latex/ 

        這次沒有那種網頁了吧?-R的意義在于拒絕下載匹配類型的文件,-A表示僅僅接受的文件類型,如-A "*.gif"將僅下載gif圖片,如果有多個允許或者不允許,可以使用,分開。

        那么,我們現在在使用代理服務器,怎么辦呢?呵呵,很高興你選擇了wget,你可以使用它的配置文件,環境變量來利用代理。這里推薦使用環境變量,如在 bash里面我們可以把天天用的proxy加到.bash_profile里面,這是Linux標準寫法(很多軟件都用的,什么apt-get,yum等等)

         export http_proxy=http://10.20.30.40:8080/ 

        然后,proxy就默認打開了,如果需要暫時關閉,可以使用

         wget --proxy=off -r -k http://www.ctan.org/tex-archive/macros/latex/ 

        當然,寫一個.wgetrc文件也可以,該文件可以從/usr/local/etc里面找到,里面有很詳細的注釋,我就不多說了。

        下載網頁的時候比較麻煩的事情是,有的網頁被同時指向了很多遍,那么為了避免多次下載,我們使用

         wget -nc -r -k http://www.ctan.org/tex-archive/macros/latex/ 

        可以避免這件事情。為了不被有的連接指向非http://www.ctan.org/tex-archive/macros/latex/ 內層目錄,我們還應該加上

         wget -nc -np -r -k http://www.ctan.org/tex-archive/macros/latex/ 

        避免下載非該目錄里面的文件,這也避免了到不同的host上面去。當然,如果你希望有這個功能,在多個host之間跳來跳去的下載,可以使用

         wget -nc -np -H -r -k http://www.ctan.org/tex-archive/macros/latex/ 

        使得可以在多個host之間span,同時-I和-X可以使得我們僅僅跟蹤某些目錄或者不跟蹤某些目錄。如果某些HTML里面你需要的東西不是由這種東西作出來的,你就得使用--follow-tags和--ignore-tags了。

        嘿,我有個文件里面都是連接,怎么辦?要是不是html你只需要

         wget -i your.file 

        如果是,那也不繁

         wget -F -i your.file 

        下面是補充:

        wget -m ftp://ipaddress/*

        -m 做站點鏡像時的選項,如果你想做一個站點的鏡像,使用這個選項,它將自動設定其他合適的選項以便于站點鏡像;等價于 -r -N -l inf -nr.

        參數類型

        啟動

        1. -V, --version 顯示wget的版本后退出
        2. -h, --help 打印語法幫助
        3. -b, --background 啟動后轉入后臺執行
        4. -e, --execute=COMMAND 執行`.wgetrc'格式的命令,wgetrc格式參見/etc/wgetrc或~/.wgetrc

        記錄和輸入文件

        1. -o, --output-file=FILE 把記錄寫到FILE文件中
        2. -a, --append-output=FILE 把記錄追加到FILE文件中
        3. -d, --debug 打印調試輸出
        4. -q, --quiet 安靜模式(沒有輸出)
        5. -v, --verbose 冗長模式(這是缺省設置)
        6. -nv, --non-verbose 關掉冗長模式,但不是安靜模式
        7. -i, --input-file=FILE 下載在FILE文件中出現的URLs
        8. -F, --force-html 把輸入文件當作HTML格式文件對待
        9. -B, --base=URL 將URL作為在-F -i參數指定的文件中出現的相對鏈接的前綴
        10. --sslcertfile=FILE 可選客戶端證書
        11. --sslcertkey=KEYFILE 可選客戶端證書的KEYFILE
        12. --egd-file=FILE 指定EGD socket的文件名

        下載

        1. --bind-address=ADDRESS 指定本地使用地址(主機名或IP,當本地有多個IP或名字時使用)
        2. -t, --tries=NUMBER 設定最大嘗試鏈接次數(0 表示無限制).
        3. -O --output-document=FILE 把文檔寫到FILE文件中
        4. -nc, --no-clobber 不要覆蓋存在的文件或使用.#前綴
        5. -c, --continue 接著下載沒下載完的文件
        6. --progress=TYPE 設定進程條標記
        7. -N, --timestamping 不要重新下載文件除非比本地文件新
        8. -S, --server-response 打印服務器的回應
        9. --spider 不下載任何東西
        10. -T, --timeout=SECONDS 設定響應超時的秒數
        11. -w, --wait=SECONDS 兩次嘗試之間間隔SECONDS秒
        12. --waitretry=SECONDS 在重新鏈接之間等待1...SECONDS秒
        13. --random-wait 在下載之間等待0...2*WAIT秒
        14. -Y, --proxy=on/off 打開或關閉代理
        15. -Q, --quota=NUMBER 設置下載的容量限制
        16. --limit-rate=RATE 限定下載輸率

        目錄

        1. -nd --no-directories 不創建目錄
        2. -x, --force-directories 強制創建目錄
        3. -nH, --no-host-directories 不創建主機目錄
        4. -P, --directory-prefix=PREFIX 將文件保存到目錄 PREFIX/...
        5. --cut-dirs=NUMBER 忽略 NUMBER層遠程目錄

        HTTP 選項

        1. --http-user=USER 設定HTTP用戶名為 USER.
        2. --http-passwd=PASS 設定http密碼為 PASS.
        3. -C, --cache=on/off 允許/不允許服務器端的數據緩存 (一般情況下允許).
        4. -E, --html-extension 將所有text/html文檔以.html擴展名保存
        5. --ignore-length 忽略 `Content-Length'頭域
        6. --header=STRING 在headers中插入字符串 STRING
        7. --proxy-user=USER 設定代理的用戶名為 USER
        8. --proxy-passwd=PASS 設定代理的密碼為 PASS
        9. --referer=URL 在HTTP請求中包含 `Referer: URL'頭
        10. -s, --save-headers 保存HTTP頭到文件
        11. -U, --user-agent=AGENT 設定代理的名稱為 AGENT而不是 Wget/VERSION.
        12. --no-http-keep-alive 關閉 HTTP活動鏈接 (永遠鏈接).
        13. --cookies=off 不使用 cookies.
        14. --load-cookies=FILE 在開始會話前從文件 FILE中加載cookie
        15. --save-cookies=FILE 在會話結束后將 cookies保存到 FILE文件中

        FTP 選項

        1. -nr, --dont-remove-listing 不移走 `.listing'文件
        2. -g, --glob=on/off 打開或關閉文件名的 globbing機制
        3. --passive-ftp 使用被動傳輸模式 (缺省值).
        4. --active-ftp 使用主動傳輸模式
        5. --retr-symlinks 在遞歸的時候,將鏈接指向文件(而不是目錄)

        遞歸下載

        1. -r, --recursive 遞歸下載--慎用!
        2. -l, --level=NUMBER 最大遞歸深度 (inf 或 0 代表無窮).
        3. --delete-after 在現在完畢后局部刪除文件
        4. -k, --convert-links 轉換非相對鏈接為相對鏈接
        5. -K, --backup-converted 在轉換文件X之前,將之備份為 X.orig
        6. -m, --mirror 等價于 -r -N -l inf -nr.
        7. -p, --page-requisites 下載顯示HTML文件的所有圖片

        遞歸下載中的包含和不包含(accept/reject)

        1. -A, --accept=LIST 分號分隔的被接受擴展名的列表
        2. -R, --reject=LIST 分號分隔的不被接受的擴展名的列表
        3. -D, --domains=LIST 分號分隔的被接受域的列表
        4. --exclude-domains=LIST 分號分隔的不被接受的域的列表
        5. --follow-ftp 跟蹤HTML文檔中的FTP鏈接
        6. --follow-tags=LIST 分號分隔的被跟蹤的HTML標簽的列表
        7. -G, --ignore-tags=LIST 分號分隔的被忽略的HTML標簽的列表
        8. -H, --span-hosts 當遞歸時轉到外部主機
        9. -L, --relative 僅僅跟蹤相對鏈接
        10. -I, --include-directories=LIST 允許目錄的列表
        11. -X, --exclude-directories=LIST 不被包含目錄的列表
        12. -np, --no-parent 不要追溯到父目錄
         
        75574 主站蜘蛛池模板: 婷婷丁香五月深爱憿情网| 一本无码在线观看| 国产成人精品无码播放| 国产高清一区二区不卡| mm1313亚洲国产精品| 婷婷六月综合缴情在线| 国产成人精品久久性色av| 午夜男女爽爽影院在线| 97精品久久久久中文字幕| 精品国产不卡在线观看免费| 无码国产69精品久久久久网站| 国产一区二区牛影视| 日韩精品中文字幕人妻| 亚洲中文无码av永久app| 粉嫩蜜臀av一区二区绯色| 麻花传媒在线观看免费| 亚洲性日韩精品一区二区| 国内精品无码一区二区三区| 欧美精品亚洲日韩aⅴ| 在线精品国产中文字幕| 国产精品无码不卡一区二区三区| 国产乱码精品一区二区三| 一区二区三区激情都市| 亚洲女同精品一区二区久久| 国产精品免费视频不卡| 日本三级香港三级三级人妇久| 国产成人片无码视频| 国产午夜福利精品久久不卡| 国产日韩精品视频无码| av日韩精品在线播放| 国产私拍大尺度在线视频| 国精品午夜福利视频| 国产欧美日韩专区发布| gogo无码大胆啪啪艺术| 亚洲自偷自偷偷色无码中文 | 久久精品一区二区东京热| 久久精品人妻无码一区二区三区| 亚洲欧美日韩尤物AⅤ一区| 久久人妻少妇偷人精品综合桃色 | 中文字幕无码av不卡一区| 最新国产AV最新国产在钱|