亚洲日本一区二区三区在线不卡-午夜成人亚洲理伦片在线观看-亚洲中文字幕无码久久综合网-国产亚洲成av人片在线观看-国产69精品久久久久999小说

當前位置: 首頁 > 上海網站建設專題

上海網站建設專題

建網站時如何設置Robots.txt文件

來源: 建網站    發布日期: 2013-05-07 11:18    點擊量: 4502

做網站的朋友可能都聽說過Robots.txt文件,這個Robots.txt是網站與搜索引擎溝通的一個重要的渠道,通過這個文件,可以告訴搜索引擎自己做的網站那些頁面可以允許他們收錄,那些不允許他們收錄。那么自己就可以在建網站的時候,通過這個文件和搜索引擎達成協議。

 

Robots.txt文件必須要放在網站根目錄的下面,搜索引擎也會自動地根據網站域名,自動的找到這個文件來判斷自己是否可以收錄這個頁面。如果自己的網站允許搜索引擎可以收錄自己網站的所有的內容,那么就可以不放這個文件。

 

要放相關的文件的話,就要做Robots.txt,那么就要符合相關的格式,格式內容是用一個記事本命名為Robots.txt。里面寫上下面的內容。大家可以在建網站的時候做好之后傳到網站根目錄下。

 

格式如下:

User-agent:*

這個指的就是針對所有的搜索引擎蜘蛛代理

Disallow:/search.html

Disallow是不允許的意思,這一行說明的是不允許收錄/search.html這個文件;

Disallow:/index.php?

這一行說的是不允許搜索引擎收錄URL里面包含index.php?的文件;

Disallow:/tempweb/

這一行說的是不允許搜索引擎收錄這個文件夾/tempweb/里面所有的內容。

 

很多建網站的朋友做了這個文件之后不是很自信,這個時候,不妨可以找一些大型的網站,去看看他們的是怎么做的,對比一下自己的是不是有錯誤,自己就會確信其效果了。

另外需要注意一些符號是否有錯誤,比如大小寫空格啊什么的,盡量不要用一些復雜的參數;盡量的采用這種比較簡潔的方式來屏蔽自己一些不想讓搜索引擎收錄的內容。

 

大家可能聽說過一些網站被人惡意的修改Robots.txt文件,本來排名很好的被修改后,搜索引擎就不收錄了,所以大家在做網站維護的時候,有時候要不斷地檢查下自己的這個Robots.txt文件。

 

 

本文由上海藝覺網絡科技有限公司(http://www.gxxmybkw.com/)原創編輯,轉載請注明

 

相關新聞

CONTACT USCAREERSFOODSERVICEPRESSPRIVACY POLICY
? 2014 yijueweb. All rights reserved.
?
 
主站蜘蛛池模板: 内射中出无码护士在线| 久久精品国产亚洲av麻豆~| 亚洲日本一区二区三区在线| 久久久久久人妻一区精品| 亚洲αv在线精品糸列| 艳妇乳肉豪妇荡乳av无码福利| 欧洲熟妇乱xxxxx大屁股7| 亚洲熟女乱色一区二区三区| 国产在线观看免费观看| 激情国产av做激情国产爱| av免费网址在线观看| 巨大巨粗巨长 黑人长吊| 福利一区二区三区视频在线观看 | 无遮挡又黄又刺激又爽的视频 | 又色又爽又黄又无遮挡网站| 久久天天躁狠狠躁夜夜av | 人人草人人做人人爱| 最刺激黄a大片免费观看下载| 18禁止进入1000部高潮网站| 国语精品一区二区三区| 51精品国产人成在线观看| 国内精品久久人妻互换| 国产真实乱对白精彩久久| 久久人人做人人妻人人玩精品hd| 午夜视频在线瓜伦| 久久久久亚洲av片无码| а中文在线天堂| 中文字幕久久久久人妻| 尤物永久网站| 欧美日韩精品一区二区在线播放| 亚洲国产精品无码专区在线观看 | 亚洲女同成av人片在线观看 | 欧美牲交a欧美牲交| 国产av熟女一区二区三区| 无码专区人妻系列日韩精品| 日韩精品无码一区二区三区| 中文日韩亚洲欧美制服| 无码专区国产精品视频| 人妻少妇久久中文字幕| 久久久无码人妻精品无码 | 99精品久久精品一区二区|