欧美黑人激情性久久,一本色道久久综合无码人妻,欧美另类人妻制服丝袜,日韩精品一卡2卡3卡4卡新区乱码,欧洲熟妇性色黄在线观看免费,97夜夜澡人人爽人人喊中国片,77se77亚洲欧美在线,久久精品一区二区免费播放

                    禁止搜索引擎收錄:robots.txt文件詳解

                    一.什么是robots.txt文件? 搜索引擎通過(guò)一種程序robot(又稱spider),自動(dòng)訪問(wèn)互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取網(wǎng)頁(yè)信息。 您可以在您的網(wǎng)站中創(chuàng)建一個(gè)純文本文件robots.txt,在這個(gè)文件中聲明該網(wǎng)站中不想被robot訪問(wèn)的部分,這樣,該網(wǎng)站的部分或全部?jī)?nèi)容就可以不被

                    一.什么是robots.txt文件?

                      搜索引擎通過(guò)一種程序robot(又稱spider),自動(dòng)訪問(wèn)互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取網(wǎng)頁(yè)信息。

                      您可以在您的網(wǎng)站中創(chuàng)建一個(gè)純文本文件robots.txt,在這個(gè)文件中聲明該網(wǎng)站中不想被robot訪問(wèn)的部分,這樣,該網(wǎng)站的部分或全部?jī)?nèi)容就可以不被搜索引擎收錄了,或者指定搜索引擎只收錄指定的內(nèi)容。

                    二. robots.txt文件放在哪里?

                      robots.txt文件應(yīng)該放在網(wǎng)站根目錄下。舉例來(lái)說(shuō),當(dāng)robots訪問(wèn)一個(gè)網(wǎng)站(比如http://www.abc.com)時(shí),首先會(huì)檢查該網(wǎng)站中是否存在http://www.abc.com/robots.txt這個(gè)文件,如果機(jī)器人找到這個(gè)文件,它就會(huì)根據(jù)這個(gè)文件的內(nèi)容,來(lái)確定它訪問(wèn)權(quán)限的范圍。

                    網(wǎng)站 URL相應(yīng)的 robots.txt的 URL
                    http://www.w3.org/http://www.w3.org/robots.txt
                    http://www.w3.org:80/http://www.w3.org:80/robots.txt
                    http://www.w3.org:1234/http://www.w3.org:1234/robots.txt
                    http://w3.org/ http://w3.org/robots.txt

                    三. robots.txt文件的格式

                    “robots.txt”文件包含一條或更多的記錄,這些記錄通過(guò)空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:

                        ”<field>:<optionalspace><value><optionalspace>“。

                      在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow行,詳細(xì)情況如下:

                    User-agent:
                      該項(xiàng)的值用于描述搜索引擎robot的名字,在”robots.txt”文件中,如果有多條User-agent記錄說(shuō)明有多個(gè)robot會(huì)受到該協(xié)議的限制,對(duì)該文件來(lái)說(shuō),至少要有一條User-agent記錄。如果該項(xiàng)的值設(shè)為*,則該協(xié)議對(duì)任何機(jī)器人均有效,在”robots.txt”文件中,”User-agent:*”這樣的記錄只能有一條。

                    Disallow :
                      該項(xiàng)的值用于描述不希望被訪問(wèn)到的一個(gè)URL,這個(gè)URL可以是一條完整的路徑,也可以是部分的,任何以Disallow 開頭的URL均不會(huì)被robot訪問(wèn)到。例如”Disallow: /help”對(duì)/help.html 和/help/index.html都不允許搜索引擎訪問(wèn),而”Disallow: /help/”則允許robot訪問(wèn)/help.html,而不能訪問(wèn)/help/index.html。
                    任何一條Disallow記錄為空,說(shuō)明該網(wǎng)站的所有部分都允許被訪問(wèn),在”/robots.txt”文件中,至少要有一條Disallow記錄。如果”/robots.txt”是一個(gè)空文件,則對(duì)于所有的搜索引擎robot,該網(wǎng)站都是開放的。

                    四. robots.txt文件用法舉例

                    例1. 禁止所有搜索引擎訪問(wèn)網(wǎng)站的任何部分

                       
                    下載該robots.txt文件

                    User-agent: *
                    Disallow: /

                    例2. 允許所有的robot訪問(wèn)

                    (或者也可以建一個(gè)空文件 “/robots.txt” file)

                    ?

                    User-agent: *
                    Disallow:

                    ?

                    例3. 禁止某個(gè)搜索引擎的訪問(wèn)

                    User-agent: BadBot
                    Disallow: /

                    例4. 允許某個(gè)搜索引擎的訪問(wèn)

                    User-agent: baiduspider
                    Disallow:

                    User-agent: *
                    Disallow: /

                    例5. 一個(gè)簡(jiǎn)單例子

                      在這個(gè)例子中,該網(wǎng)站有三個(gè)目錄對(duì)搜索引擎的訪問(wèn)做了限制,即搜索引擎不會(huì)訪問(wèn)這三個(gè)目錄。
                      需要注意的是對(duì)每一個(gè)目錄必須分開聲明,而不要寫成 “Disallow: /cgi-bin/ /tmp/”。
                      User-agent:后的* 具有特殊的含義,代表”any robot”,所以在該文件中不能有”Disallow: /tmp/*” or “Disallow: *.gif”這樣的記錄出現(xiàn).

                    User-agent: *
                    Disallow: /cgi-bin/
                    Disallow: /tmp/
                    Disallow: /~joe/

                    五. robots.txt文件參考資料

                    robots.txt文件的更具體設(shè)置,請(qǐng)參看以下鏈接:

                    ? Web Server Administrator’s Guide to the Robots Exclusion Protocol
                    ? HTML Author’s Guide to the Robots Exclusion Protocol
                    ? The original 1994 protocol description, as currently deployed
                    ? The revised Internet-Draft specification, which is not yet completed or implemented

                    總結(jié):

                    看這么多也許有些朋友會(huì)很不耐心,簡(jiǎn)單地說(shuō),robots.txt是這樣一個(gè)文件,他可以將爬蟲關(guān)到門外,使得不索引某個(gè)頁(yè)面,具體的用法就是將不想被搜索引擎機(jī)器人爬行的網(wǎng)頁(yè)目錄下的文件所在的目錄防至robots.txt,在前面加上Disallow:/(表示不允許)后面在跟上該目錄,就會(huì)給搜索引擎這樣一個(gè)信號(hào),這個(gè)目錄下所有的網(wǎng)頁(yè)不要被訪問(wèn)了,如果在目錄后面再加“/”則表示不要爬行該目錄下面的默認(rèn)主頁(yè),一般默認(rèn)主頁(yè)為index.html,index.htm之類。

                    給TA打賞
                    共{{data.count}}人
                    人已打賞
                    網(wǎng)站推廣

                    網(wǎng)站推廣:搜索引擎登記技巧

                    2007-7-29 10:20:00

                    網(wǎng)站推廣

                    用Javascript評(píng)估用戶輸入密碼的強(qiáng)度

                    2007-7-29 10:41:00

                    0 條回復(fù) A文章作者 M管理員
                      暫無(wú)討論,說(shuō)說(shuō)你的看法吧
                    ?
                    個(gè)人中心
                    購(gòu)物車
                    優(yōu)惠劵
                    有新私信 私信列表
                    搜索
                    主站蜘蛛池模板: 久久天天躁夜夜躁狠狠85| 精品卡一卡二卡3卡高清乱码| 国产成人a在线观看视频| 人妻另类 专区 欧美 制服| 无码中文人妻在线一区| 免费看女人与善牲交| 亚洲精品香蕉一区二区| 国产成人精品自在线导航| 精品无人乱码一区二区三区| 吾爱夜趣福利在线导航观看| 天堂va视频一区二区| 九九成人免费视频| 国产精品一区二区三区污| 日本丰满岳乱妇在线观看| 国产美女裸身网站免费观看视频| 亚洲av伊人久久青青草原| 青青国产揄拍视频在线观看 | 国产精品乱码高清在线观看| 中文字幕 制服 亚洲 另类| 中文无码妇乱子伦视频| 一区二区三区国产好的精华液 | 日韩精品国产另类专区| 丝袜足控一区二区三区| 国产午夜福利在线播放爱剪辑| 久久精品女人的天堂av| 欧美一进一出抽搐大尺度视频| 久久久久久综合岛国免费观看| 国产亚洲精品久久久久久久软件 | 日韩中文字幕高清有码| 中文人妻无码一区二区三区| 亚洲成av人片在线观看不卡| 亚洲午夜精品久久久久久抢| 少妇伦子伦情品无吗| 国产777涩在线 | 美洲| 成人网站免费观看永久视频下载| 亚洲综合色成在线播放| 无码专区国产精品视频| 爱如潮水日本免费观看视频| 毛色毛片免费观看| 真人无码国产作爱免费视频| 永久免费在线观看蜜桃视频|