九九精品影院-九九精品在线-九九精品在线播放-九九九国产-国产成+人+综合+亚洲不卡-国产成a人片在线观看视频

域名綜合信息查詢(xún)...
  • 綜合
  • Whois
×
歷史記錄

robots怎么寫(xiě)?robots文件寫(xiě)法詳解?

發(fā)布時(shí)間:2020-03-12 13:43:51 來(lái)源:互聯(lián)網(wǎng) 作者:ypc 點(diǎn)擊量:2907

? ?
robots怎么寫(xiě)?相信很多人都會(huì)有這樣的疑問(wèn),下面聚名網(wǎng)為你詳解一下robots文件寫(xiě)法詳解。

robots文件


robots 是站點(diǎn)與 spider 溝通的重要渠道,站點(diǎn)通過(guò) robots 文件聲明該網(wǎng)站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。請(qǐng)注意,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時(shí),才需要使用 robots.txt 文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請(qǐng)勿建立 robots.txt 文件。

robots 文件往往放置于根目錄下,包含一條或更多的記錄,這些記錄通過(guò)空行分開(kāi)(以 CR,CR/NL, or NL 作為結(jié)束符),每一條記錄的格式如下所示: :

在該文件中可以使用#進(jìn)行注解,具體使用方法和 UNIX 中的慣例一樣。該文件中的記錄通常以一行或多行 User-agent 開(kāi)始,后面加上若干 Disallow 和 Allow 行 , 詳細(xì)情況如下:

User-agent:該項(xiàng)的值用于描述搜索引擎 robot 的名字。在 "robots.txt" 文件中,如果有多條- User-agent 記錄說(shuō)明有多個(gè) robot 會(huì)受到 "robots.txt" 的限制,對(duì)該文件來(lái)說(shuō),至少要有一條 User-agent 記錄。如果該項(xiàng)的值設(shè)為 ,則對(duì)任何 robot 均有效,在 "robots.txt" 文件中,"User-agent:" 這樣的記錄只能有一條。如果在 "robots.txt" 文件中,加入 "User-agent:SomeBot" 和若干 Disallow、Allow 行,那么名為 "SomeBot" 只受到 "User-agent:SomeBot" 后面的 Disallow 和 Allow 行的限制。

Disallow:該項(xiàng)的值用于描述不希望被訪(fǎng)問(wèn)的一組 URL,這個(gè)值可以是一條完整的路徑,也可以是路徑的非空前綴,以 Disallow 項(xiàng)的值開(kāi)頭的 URL 不會(huì)被 robot 訪(fǎng)問(wèn)。例如 "Disallow:/help" 禁止 robot 訪(fǎng)問(wèn) /help.html、/helpabc.html、/help/index.html,而 "Disallow:/help/" 則允許 robot 訪(fǎng)問(wèn) /help.html、/helpabc.html,不能訪(fǎng)問(wèn) /help/index.html。"Disallow:" 說(shuō)明允許 robot 訪(fǎng)問(wèn)該網(wǎng)站的所有 url,在 "/robots.txt" 文件中,至少要有一條 Disallow 記錄。如果 "/robots.txt" 不存在或者為空文件,則對(duì)于所有的搜索引擎 robot,該網(wǎng)站都是開(kāi)放的。

Allow:該項(xiàng)的值用于描述希望被訪(fǎng)問(wèn)的一組 URL,與 Disallow 項(xiàng)相似,這個(gè)值可以是一條完整的路徑,也可以是路徑的前綴,以 Allow 項(xiàng)的值開(kāi)頭的 URL 是允許 robot 訪(fǎng)問(wèn)的。例如 "Allow:/hibaidu" 允許 robot 訪(fǎng)問(wèn) /hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一個(gè)網(wǎng)站的所有 URL 默認(rèn)是 Allow 的,所以 Allow 通常與 Disallow 搭配使用,實(shí)現(xiàn)允許訪(fǎng)問(wèn)一部分網(wǎng)頁(yè)同時(shí)禁止訪(fǎng)問(wèn)其它所有 URL 的功能。

使用 "*"and"$":Baiduspider 支持使用通配符 "" 和 "$" 來(lái)模糊匹配 url。 "" 匹配 0 或多個(gè)任意字符 "$" 匹配行結(jié)束符。

最后需要說(shuō)明的是:百度會(huì)嚴(yán)格遵守 robots 的相關(guān)協(xié)議,請(qǐng)注意區(qū)分您不想被抓取或收錄的目錄的大小寫(xiě),百度會(huì)對(duì) robots 中所寫(xiě)的文件和您不想被抓取和收錄的目錄做精確匹配,否則 robots 協(xié)議無(wú)法生效。
以上就是對(duì)robots怎么寫(xiě)?robots文件寫(xiě)法詳解的全部介紹,如果您想了解更多seo知識(shí),請(qǐng)關(guān)注聚名網(wǎng)。

seo優(yōu)化鏈接:https://www.juming.com/reg.htm?t=seo_adzxseo
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享網(wǎng)絡(luò)內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話(huà):400-997-2996;郵箱:service@Juming.com。本站原創(chuàng)內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明出處:聚名網(wǎng) robots怎么寫(xiě)?robots文件寫(xiě)法詳解?
關(guān)鍵詞: robotsrobots文件
熱門(mén)競(jìng)價(jià) 更多>
推薦一口價(jià) 更多>

登錄聚名,您可以享受以下權(quán)益:

立即登錄/注冊(cè)