<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    狂淘

    www.kuangtao.net

       :: 首頁 :: 新隨筆 :: 聯系 :: 聚合  :: 管理 ::
      6 隨筆 :: 185 文章 :: 68 評論 :: 0 Trackbacks

    通過給網站設置適當的robots.txt對Google和百度seo優化的作用是很明顯的。WordPress博客網站也一樣。

    我們先看看robots.txt是什么,有什么作用?

    robots.txt是什么?

    我們都知道txt后綴的文件是純文本文檔,robots是機器人的意思,所以顧名思義,robots.txt文件也就是給搜索引擎蜘蛛這個機器人看 的純文本文件。robots.txt是搜索引擎公認遵循的一個規范文 檔,它告訴Google、百度等搜索引擎哪些網頁允許抓取、索引并在搜索結果中顯示,哪些網頁是被禁止收錄的。 搜索引擎蜘蛛 spider(Googlebot/Baiduspider)來訪問你的網站頁面的時候,首先會查看你的網站根目錄下是否有robots.txt文件,如 果有則按照里面設置的規則權限對你網站頁面進行抓取和索引。如淘寶網就通過設置robots.txt屏蔽百度搜索引擎:

    User-agent: Baiduspider
    Disallow: /
    User-agent: baiduspider
    Disallow: /

    robots.txt的作用

    我們了解了什么是robots.txt,那它有什么作用,總體來說,robots.txt文件至少有下面兩方面的作用:

    1、通過設置屏蔽搜索引擎訪問不必要被收錄的網站頁面,可以大大減少因spider抓取頁面所占用的網站帶寬,小網站不明顯,大型網站就很明顯了。

    2、設置robots.txt可以指定google或百度不去索引哪些網址,比如我們通過url重寫將動態網址靜態化為永久固定鏈接之后,就可以通過robots.txt設置權限,阻止Google或百度等搜索引擎索引那些動態網址,從而大大減少了網站重復頁面,對SEO優化起到了很明顯的作用。

    robots.txt的寫法

    關于如何寫robots.txt文件,在下面我們會以WordPress博客來作更具體舉例說明。這里先提示幾點robots.txt寫法中應該注意的地方。如robots.txt文件里寫入以下代碼:

    User-agent: *
    Disallow:
    Allow: /

    robots.txt必須上傳到你的網站根名錄下,在子目錄下無效;

    robots.txt,Disallow等必須注意大小寫,不能變化;

    User-agent,Disallow等后面的冒號必須是英文狀態下的,冒號后面可以空一格,也可以不空格。網上有人說冒號后面必須有空格,其實沒有也是可以的,請看谷歌中文網站管理員博客的設置就是這樣:http://www.googlechinawebmaster.com/robots.txt ;

    User-agent表示搜索引擎spider:星號“*”代表所有spider,Google的spider是“Googlebot”,百度是“Baiduspider”;

    Disallow:表示不允許搜索引擎訪問和索引的目錄;

    Allow:指明允許spider訪問和索引的目錄,Allow: / 表示允許所有,和Disallow: 等效。

    robots.txt文件寫法舉例說明

    禁止Google/百度等所有搜索引擎訪問整個網站

    User-agent: *
    Disallow: /

    允許所有的搜索引擎spider訪問整個網站(Disallow:可以用Allow: /替代)

    User-agent: *
    Disallow:

    禁止Baiduspider訪問您的網站,Google等其他搜索引擎不阻止

    User-agent: Baiduspider
    Disallow: /

    只允許Google spider: Googlebot訪問您的網站,禁止百度等其他搜索引擎

    User-agent: Googlebot
    Disallow:
    User-agent: *
    Disallow: /

    禁止搜索引擎蜘蛛spider訪問指定目錄
      (spider不訪問這幾個目錄。每個目錄要分開聲明,不能合在一起)

    User-agent: *
    Disallow: /cgi-bin/
    Disallow: /admin/
    Disallow: /~jjjj/

    禁止搜索引擎spider訪問指定目錄,但允許訪問該指定目錄的某個子目錄

    User-agent: *
    Allow: /admin/far
    Disallow: /admin/

    使用通配符星號"*"設置禁止訪問的url
       (禁止所有搜索引擎抓取/cgi-bin/目錄下的所有以".html"格式的網頁(包含子目錄))

    User-agent: *
    Disallow: /cgi-bin/*.html

    使用美元符號"$"設置禁止訪問某一后綴的文件
       (只允許訪問以".html"格式的網頁文件。)

    User-agent: *
    Allow: .html$
    Disallow: /

    阻止google、百度等所有搜索引擎訪問網站中所有帶有?的動態網址頁面

    User-agent: *
    Disallow: /*?*

    阻止Google spider:Googlebot訪問網站上某種格式的圖片
      (禁止訪問.jpg 格式的圖片)

    User-agent: Googlebot
    Disallow: .jpg$

    只允許Google spider:Googlebot抓取網頁和.gif格式圖片
       (Googlebot只能抓取gif格式的圖片和網頁,其他格式的圖片被禁止;
                其他搜索引擎未設置)

    User-agent: Googlebot
    Allow: .gif$
    Disallow: .jpg$
    .......

    只禁止Google spider:Googlebot抓取.jpg格式圖片
               (其他搜索引擎和其他格式圖片沒有禁止)

    User-agent: Googlebot
    Disallow: .jpg$

    www.kuangtao.net  淘寶網首頁
    posted on 2010-05-28 22:11 狂淘 閱讀(319) 評論(1)  編輯  收藏 所屬分類: SEO

    評論

    # re: robots.txt用法和seo作用-Googlebot/Baiduspider 2010-07-03 11:03 深圳酒店預訂網
    學習了!!!  回復  更多評論
      

    主站蜘蛛池模板: 免费的黄色网页在线免费观看| 亚洲精品无码久久| 国产在线精品免费aaa片| 亚洲一区二区三区在线观看精品中文| 男男gvh肉在线观看免费| 国产国产人免费人成免费视频| 色偷偷亚洲男人天堂| 亚洲精品国产日韩无码AV永久免费网 | 亚洲人成网址在线观看| 亚洲精品免费观看| 亚洲av无码片在线观看| 国产成人综合久久精品免费| 日韩精品免费一线在线观看| 国产AⅤ无码专区亚洲AV| 免费成人高清在线视频| 亚洲国产美女精品久久| 永久久久免费浮力影院| 国产精品偷伦视频免费观看了| 久久亚洲精品成人综合| 日韩免费一区二区三区在线播放| wwwxxx亚洲| 亚洲成人高清在线| 久久国产精品国产自线拍免费| 亚洲成a人片在线观看中文!!!| 成人看的午夜免费毛片| 日本高清不卡中文字幕免费| 人人狠狠综合久久亚洲婷婷| 国产成人精品免费视频网页大全| 亚洲AV无码一区二区三区久久精品 | 亚洲中文字幕久在线| 国产一级大片免费看| 精品一卡2卡三卡4卡免费视频| 亚洲精品网站在线观看你懂的| 成年女人毛片免费播放人| 国产一级a毛一级a看免费人娇 | 小小影视日本动漫观看免费| 99免费精品视频| 亚洲精品第一综合99久久| 亚洲中文久久精品无码| 97无码免费人妻超级碰碰夜夜| 成人午夜影视全部免费看|