欧美黑人激情性久久,一本色道久久综合无码人妻,欧美另类人妻制服丝袜,日韩精品一卡2卡3卡4卡新区乱码,欧洲熟妇性色黄在线观看免费,97夜夜澡人人爽人人喊中国片,77se77亚洲欧美在线,久久精品一区二区免费播放

                    禁止搜索引擎收錄:robots.txt文件詳解

                    一.什么是robots.txt文件? 搜索引擎通過(guò)一種程序robot(又稱(chēng)spider),自動(dòng)訪問(wèn)互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取網(wǎng)頁(yè)信息。 您可以在您的網(wǎng)站中創(chuàng)建一個(gè)純文本文件robots.txt,在這個(gè)文件中聲明該網(wǎng)站中不想被robot訪問(wèn)的部分,這樣,該網(wǎng)站的部分或全部?jī)?nèi)容就可以不被

                    一.什么是robots.txt文件?

                      搜索引擎通過(guò)一種程序robot(又稱(chēng)spider),自動(dòng)訪問(wèn)互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取網(wǎng)頁(yè)信息。

                      您可以在您的網(wǎng)站中創(chuàng)建一個(gè)純文本文件robots.txt,在這個(gè)文件中聲明該網(wǎng)站中不想被robot訪問(wèn)的部分,這樣,該網(wǎng)站的部分或全部?jī)?nèi)容就可以不被搜索引擎收錄了,或者指定搜索引擎只收錄指定的內(nèi)容。

                    二. robots.txt文件放在哪里?

                      robots.txt文件應(yīng)該放在網(wǎng)站根目錄下。舉例來(lái)說(shuō),當(dāng)robots訪問(wèn)一個(gè)網(wǎng)站(比如http://www.abc.com)時(shí),首先會(huì)檢查該網(wǎng)站中是否存在http://www.abc.com/robots.txt這個(gè)文件,如果機(jī)器人找到這個(gè)文件,它就會(huì)根據(jù)這個(gè)文件的內(nèi)容,來(lái)確定它訪問(wèn)權(quán)限的范圍。

                    網(wǎng)站 URL相應(yīng)的 robots.txt的 URL
                    http://www.w3.org/http://www.w3.org/robots.txt
                    http://www.w3.org:80/http://www.w3.org:80/robots.txt
                    http://www.w3.org:1234/http://www.w3.org:1234/robots.txt
                    http://w3.org/ http://w3.org/robots.txt

                    三. robots.txt文件的格式

                    “robots.txt”文件包含一條或更多的記錄,這些記錄通過(guò)空行分開(kāi)(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:

                        ”<field>:<optionalspace><value><optionalspace>“。

                      在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開(kāi)始,后面加上若干Disallow行,詳細(xì)情況如下:

                    User-agent:
                      該項(xiàng)的值用于描述搜索引擎robot的名字,在”robots.txt”文件中,如果有多條User-agent記錄說(shuō)明有多個(gè)robot會(huì)受到該協(xié)議的限制,對(duì)該文件來(lái)說(shuō),至少要有一條User-agent記錄。如果該項(xiàng)的值設(shè)為*,則該協(xié)議對(duì)任何機(jī)器人均有效,在”robots.txt”文件中,”User-agent:*”這樣的記錄只能有一條。

                    Disallow :
                      該項(xiàng)的值用于描述不希望被訪問(wèn)到的一個(gè)URL,這個(gè)URL可以是一條完整的路徑,也可以是部分的,任何以Disallow 開(kāi)頭的URL均不會(huì)被robot訪問(wèn)到。例如”Disallow: /help”對(duì)/help.html 和/help/index.html都不允許搜索引擎訪問(wèn),而”Disallow: /help/”則允許robot訪問(wèn)/help.html,而不能訪問(wèn)/help/index.html。
                    任何一條Disallow記錄為空,說(shuō)明該網(wǎng)站的所有部分都允許被訪問(wèn),在”/robots.txt”文件中,至少要有一條Disallow記錄。如果”/robots.txt”是一個(gè)空文件,則對(duì)于所有的搜索引擎robot,該網(wǎng)站都是開(kāi)放的。

                    四. robots.txt文件用法舉例

                    例1. 禁止所有搜索引擎訪問(wèn)網(wǎng)站的任何部分

                       
                    下載該robots.txt文件

                    User-agent: *
                    Disallow: /

                    例2. 允許所有的robot訪問(wèn)

                    (或者也可以建一個(gè)空文件 “/robots.txt” file)

                     

                    User-agent: *
                    Disallow:

                     

                    例3. 禁止某個(gè)搜索引擎的訪問(wèn)

                    User-agent: BadBot
                    Disallow: /

                    例4. 允許某個(gè)搜索引擎的訪問(wèn)

                    User-agent: baiduspider
                    Disallow:

                    User-agent: *
                    Disallow: /

                    例5. 一個(gè)簡(jiǎn)單例子

                      在這個(gè)例子中,該網(wǎng)站有三個(gè)目錄對(duì)搜索引擎的訪問(wèn)做了限制,即搜索引擎不會(huì)訪問(wèn)這三個(gè)目錄。
                      需要注意的是對(duì)每一個(gè)目錄必須分開(kāi)聲明,而不要寫(xiě)成 “Disallow: /cgi-bin/ /tmp/”。
                      User-agent:后的* 具有特殊的含義,代表”any robot”,所以在該文件中不能有”Disallow: /tmp/*” or “Disallow: *.gif”這樣的記錄出現(xiàn).

                    User-agent: *
                    Disallow: /cgi-bin/
                    Disallow: /tmp/
                    Disallow: /~joe/

                    五. robots.txt文件參考資料

                    robots.txt文件的更具體設(shè)置,請(qǐng)參看以下鏈接:

                    ? Web Server Administrator’s Guide to the Robots Exclusion Protocol
                    ? HTML Author’s Guide to the Robots Exclusion Protocol
                    ? The original 1994 protocol description, as currently deployed
                    ? The revised Internet-Draft specification, which is not yet completed or implemented

                    總結(jié):

                    看這么多也許有些朋友會(huì)很不耐心,簡(jiǎn)單地說(shuō),robots.txt是這樣一個(gè)文件,他可以將爬蟲(chóng)關(guān)到門(mén)外,使得不索引某個(gè)頁(yè)面,具體的用法就是將不想被搜索引擎機(jī)器人爬行的網(wǎng)頁(yè)目錄下的文件所在的目錄防至robots.txt,在前面加上Disallow:/(表示不允許)后面在跟上該目錄,就會(huì)給搜索引擎這樣一個(gè)信號(hào),這個(gè)目錄下所有的網(wǎng)頁(yè)不要被訪問(wèn)了,如果在目錄后面再加“/”則表示不要爬行該目錄下面的默認(rèn)主頁(yè),一般默認(rèn)主頁(yè)為index.html,index.htm之類(lèi)。

                    網(wǎng)站推廣

                    網(wǎng)站推廣:搜索引擎登記技巧

                    2007-7-29 10:20:00

                    網(wǎng)站推廣

                    用Javascript評(píng)估用戶(hù)輸入密碼的強(qiáng)度

                    2007-7-29 10:41:00

                    0 條回復(fù) A文章作者 M管理員
                      暫無(wú)討論,說(shuō)說(shuō)你的看法吧
                    ?
                    個(gè)人中心
                    購(gòu)物車(chē)
                    優(yōu)惠劵
                    有新私信 私信列表
                    搜索
                    主站蜘蛛池模板: 国产精品三级av三级av三级| 日韩精品无码免费专区网站| 成人午夜精品久久久久久久| 人妻一区二区三区三区| 五十路丰满中年熟女中出| 国产成人av男人的天堂| 熟妇啊轻点灬大JI巴太粗| 亚洲色欲色欲www在线看| 中日韩精品视频一区二区三区| 国产精品亚洲А∨天堂免| 女人天堂在线a在线| 人人爽人人模人人人爽人人爱| 亚洲熟妇无码av在线播放| 成年无码按摩av片在线观看| 粗大挺进朋友人妻淑娟| 久久久99精品成人片中文字幕| 欧美伦费免费全部午夜最新| 国产日韩精品一区二区在线观看播放 | 亚洲中文字幕无码中文字在线| 日韩卡1卡2 卡三卡免费| 自拍偷自拍亚洲精品情侣| 青春草在线视频免费观看| 国产男女做爰高清全过小说| 国产精品蜜臀av在线一区| 国产偷国产偷精品高清尤物| 亚洲真人无码永久在线观看| 岛国岛国免费v片在线观看| 午夜成人无码福利免费视频| 成人看的污污超级黄网站免费 | 亚洲国产精品久久一线不卡| 最新亚洲精品国偷自产在线| 亚洲欧美高清在线精品一区二区| 午夜成人无码福利免费视频| 国产成人精品日本亚洲77美色| 亚洲一二区制服无码中字| 国产又猛又爽又黄视频| 手机永久无码国产av毛片| 日韩中文字幕亚洲精品| 偷国产乱人伦偷精品视频| 国产十八禁真成了| 国产午夜福利精品久久不卡|