国产超碰人人做人人爽av动图,99久久免费只有精品国产,青青视频精品观看视频,亚洲成a人片在线观看无码下载 ,天天做av天天爱天天爽,国产亚洲精品一区二三区,国产高清视频色拍,亚洲乱理伦片在线观看中字
MENU 服務 案例
網站建設-網站設計-北京網站建設-高端網站制作公司-尚品中國
我們通過擁抱變化創造
360°的品牌價值__
簡體
簡體中文 English

尚品與山東真諾智能設備有限公司簽署網站改版合作協議

類型:尚品動態 了解更多

搜索引擎支持哪些Robots Meta標簽

來源:尚品中國| 類型:網站百科 |時間:2019-10-18

      搜索引擎支持nofollow和noarchive。

  禁止搜索引擎收錄的方法

  1. 什么是robots.txt文件?搜索引擎使用spider程序自動訪問互聯網上的網頁并獲取網頁信息。spider在訪問一個網站時,會首先會檢查該網站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用于指定spider在您網站上的抓取范圍。您可以在您的網站中創建一個robots.txt,在文件中聲明該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。

  請注意,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容,請勿建立robots.txt文件。

  2. robots.txt文件放在哪里?robots.txt文件應該放置在網站根目錄下。舉例來說,當spider訪問一個網站(比如 http://www.abc.com)時,首先會檢查該網站中是否存在http://www.abc.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據這個文件的內容,來確定它訪問權限的范圍。

  網站 URL 相應的 robots.txt的 URL

  http://www.w3.org/ http://www.w3.org/robots.txt

  http://www.w3.org:80/ http://www.w3.org:80/robots.txt

  http://www.w3.org:1234/ http://www.w3.org:1234/robots.txt

  http://w3.org/ http://w3.org/robots.txt

  3. 我在robots.txt中設置了禁止搜索引擎跟收錄我網站的內容,為何還出現在搜索引擎跟搜索結果中?如果其他網站鏈接了您robots.txt文件中設置的禁止收錄的網頁,那么這些網頁仍然可能會出現在搜索引擎跟的搜索結果中,但您的網頁上的內容不會被抓取、建入索引和顯示,搜索引擎跟搜索結果中展示的僅是其他網站對您相關網頁的描述。

  4. 禁止搜索引擎跟蹤網頁的鏈接,而只對網頁建索引如果您不想搜索引擎追蹤此網頁上的鏈接,且不傳遞鏈接的權重,請將此元標記置入網頁的 部分:

  如果您不想搜索引擎跟追蹤某一條特定鏈接,搜索引擎跟還支持更精確的控制,請將此標記直接寫在某條鏈接上:sign in

  要允許其他搜索引擎跟蹤,但僅防止搜索引擎跟跟蹤您網頁的鏈接,請將此元標記置入網頁的 部分:

  5. 禁止搜索引擎在搜索結果中顯示網頁快照,而只對網頁建索引要防止所有搜索引擎顯示您網站的快照,請將此元標記置入網頁的部分:

  要允許其他搜索引擎顯示快照,但僅防止搜索引擎跟顯示,請使用以下標記:

  注:此標記只是禁止搜索引擎跟顯示該網頁的快照,搜索引擎跟會繼續為網頁建索引,并在搜索結果中顯示網頁摘要。

  6. 我想禁止百度圖片搜索收錄某些圖片,該如何設置?禁止Baiduspider抓取網站上所有圖片、禁止或允許Baiduspider抓取網站上的某種特定格式的圖片文件可以通過設置robots實現,請參考“robots.txt文件用法舉例”中的例10、11、12。

  7. robots.txt文件的格式"robots.txt"文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結束符),每一條記錄的格式如下所示:":"

  在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow和Allow行,詳細情況如下:

  User-agent:

  該項的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多條User-agent記錄說明有多個robot會受 到"robots.txt"的限制,對該文件來說,至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均有效, 在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

  Disallow:

  該項的值用于描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項的值開頭的URL不會被 robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"則允許robot訪問/help.html、/helpabc.html,不能訪問 /help/index.html。"Disallow:"說明允許robot訪問該網站的所有url,在"/robots.txt"文件中,至少要有一 條Disallow記錄。如果"/robots.txt"不存在或者為空文件,則對于所有的搜索引擎robot,該網站都是開放的。

  Allow:

  該項的值用于描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開頭的URL 是允許robot訪問的。例如"Allow:/hibaidu"允許robot訪問/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一個網站的所有URL默認是Allow的,所以Allow通常與Disallow搭配使用,實現允許訪問一部分網頁 同時禁止訪問其它所有URL的功能。

  使用"*"and"$":

  Baiduspider支持使用通配符"*"和"$"來模糊匹配url。

  "$" 匹配行結束符。

  "*" 匹配0或多個任意字符。

  8. URL匹配舉例Allow或Disallow的值 URL 匹配結果

  /tmp /tmp yes

  /tmp /tmp.html yes

  /tmp /tmp/a.html yes

  /tmp /tmp no

  /tmp /tmphoho no

  /Hello* /Hello.html yes

  /He*lo /Hello,lolo yes

  /Heap*lo /Hello,lolo no

  html$ /tmpa.html yes

  /a.html$ /a.html yes

  htm$ /a.html no

  9. robots.txt文件用法舉例例1. 禁止所有搜索引擎訪問網站的任何部分

  下載該robots.txt文件 User-agent: *

  Disallow: /

  例2. 允許所有的robot訪問

  (或者也可以建一個空文件 "/robots.txt") User-agent: *

  Allow: /

  例3. 僅禁止Baiduspider訪問您的網站 User-agent: Baiduspider

  Disallow: /

  例4. 僅允許Baiduspider訪問您的網站 User-agent: Baiduspider

  Allow: /

  User-agent: *

  Disallow: /

  例5. 僅允許Baiduspider以及Googlebot訪問 User-agent: Baiduspider

  Allow: /

  User-agent: Googlebot

  Allow: /

  User-agent: *

  Disallow: /

  例6. 禁止spider訪問特定目錄

  在這個例子中,該網站有三個目錄對搜索引擎的訪問做了限制,即robot不會訪問這三個目錄。需要注意的是對每一個目錄必須分開聲明,而不能寫成 "Disallow: /cgi-bin/ /tmp/"。 User-agent: *

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /~joe/

  例7. 允許訪問特定目錄中的部分url User-agent: *

  Allow: /cgi-bin/see

  Allow: /tmp/hi

  Allow: /~joe/look

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /~joe/

  例8. 使用"*"限制訪問url

  禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。 User-agent: *

  Disallow: /cgi-bin/*.htm

  例9. 使用"$"限制訪問url

  僅允許訪問以".htm"為后綴的URL。 User-agent: *

  Allow: /*.htm$

  Disallow: /

  例10. 禁止訪問網站中所有的動態頁面 User-agent: *

  Disallow: /*?*

  例11. 禁止Baiduspider抓取網站上所有圖片

  僅允許抓取網頁,禁止抓取任何圖片。 User-agent: Baiduspider

  Disallow: /*.jpg$

  Disallow: /*.jpeg$

  Disallow: /*.gif$

  Disallow: /*.png$

  Disallow: /*.bmp$

  例12. 僅允許Baiduspider抓取網頁和.gif格式圖片

  允許抓取網頁和gif格式圖片,不允許抓取其他格式圖片 User-agent: Baiduspider

  Allow: /*.gif$

  Disallow: /*.jpg$

  Disallow: /*.jpeg$

  Disallow: /*.png$

  Disallow: /*.bmp$

  例13. 僅禁止Baiduspider抓取.jpg格式圖片 User-agent: Baiduspider

  Disallow: /*.jpg$

來源聲明:本文章系尚品中國編輯原創或采編整理,如需轉載請注明來自尚品中國。以上內容部分(包含圖片、文字)來源于網絡,如有侵權,請及時與本站聯系(010-60259772)。
TAG標簽:

如果您的網站可以增加轉化次數并提高客戶滿意度,該怎么辦?

預約專業咨詢顧問溝通!

*尚品專業顧問將盡快與您聯系

免責聲明

非常感謝您訪問我們的網站。在您使用本網站之前,請您仔細閱讀本聲明的所有條款。

1、本站部分內容來源自網絡,涉及到的部分文章和圖片版權屬于原作者,本站轉載僅供大家學習和交流,切勿用于任何商業活動。

2、本站不承擔用戶因使用這些資源對自己和他人造成任何形式的損失或傷害。

3、本聲明未涉及的問題參見國家有關法律法規,當本聲明與國家法律法規沖突時,以國家法律法規為準。

4、如果侵害了您的合法權益,請您及時與我們,我們會在第一時間刪除相關內容!

聯系方式:010-60259772
電子郵件:394588593@qq.com

免責聲明

非常感謝您訪問我們的網站。在您使用本網站之前,請您仔細閱讀本聲明的所有條款。

1、本站部分內容來源自網絡,涉及到的部分文章和圖片版權屬于原作者,本站轉載僅供大家學習和交流,切勿用于任何商業活動。

2、本站不承擔用戶因使用這些資源對自己和他人造成任何形式的損失或傷害。

3、本聲明未涉及的問題參見國家有關法律法規,當本聲明與國家法律法規沖突時,以國家法律法規為準。

4、如果侵害了您的合法權益,請您及時與我們,我們會在第一時間刪除相關內容!

聯系方式:010-60259772
電子郵件:394588593@qq.com

主站蜘蛛池模板: 在线看免费无码av天堂 欧美金妇欧美乱妇xxxx 色欲香天天天综合网站小说 久久婷婷狠狠综合激情 免费观看男女性高视频 国产亚洲精品久久精品6 国产精品高清一区二区不卡片 国产婷婷综合在线视频中文 一边摸一边吃奶一边做爽 欧美做受三级级视频播放 国产成人精品无码片区 99久久国产综合精品swag 少妇人妻大乳在线视频不卡 97久久超碰国产精品旧版 男女性高爱潮是免费国产 女人摸下面自熨视频在线播放 日韩精品一区二区三区在线观看l 国产精品a免费一区久久电影 欧美 亚洲 另类 综合网 精品久久久无码中文字幕一丶 一本一久本久a久久精品综合 精品国产小视频在线观看 亚洲综合色噜噜狠狠网站超清 国产欧美日韩亚洲更新 国产成人无码精品xxxx 国产精品久久自在自线青柠 免费精品国偷自产在线在线 欧美自拍另类欧美综合图片区 成人无码嫩草影院 粗大猛烈进出高潮视频 欧美精品a∨在线观看| 亚洲精品日本一区二区三区| 久久婷婷狠狠综合激情| 久久久久 亚洲 无码 av 专区| 欧美金妇欧美乱妇xxxx| 美女内射毛片在线看免费人动物| 亚洲精品自偷自拍无码忘忧| 国外av片免费看一区二区三区| 久久丁香五月天综合网| 国产清纯在线一区二区vr| 国产熟女内射oooo|