廣東福建浙江江蘇上海北京山東遼寧江西河南四川湖北湖南廣西安徽黑龍江天津重慶吉林河北貴州甘肅山西云南新疆寧夏海南陜西西藏青海內(nèi)蒙古

新聞中心

robots.txt是搜索引擎訪問(wèn)網(wǎng)站的時(shí)侯要查看的第1個(gè)文件
發(fā)布時(shí)間:2021-06-03 09:01:05

rotbots.txt文件的制作


1.robots.txt文件的作用

robots.txt文件是一個(gè)文本文件,這個(gè)文件用來(lái)告訴搜索引擎蜘蛛網(wǎng)站的哪些部分應(yīng)該被抓取,哪些部分不用抓取。比如說(shuō),如果有很多網(wǎng)站源文件,抓取可能會(huì)增加服務(wù)器的負(fù)載,且會(huì)耗費(fèi)搜索引擎爬蟲(chóng)的時(shí)間來(lái)索引網(wǎng)站文件。站長(zhǎng)可以使用文本編輯器創(chuàng)建一個(gè)名為robots.txt的文件,比如NotePad++或記事本等工具。

注意:robots.txt實(shí)際上是搜索引擎訪問(wèn)網(wǎng)站的時(shí)侯要查看的第1個(gè)文件,當(dāng)一個(gè)搜索蜘蛛訪問(wèn)一個(gè)網(wǎng)站時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt文件,如果存在就會(huì)按照該文件中的內(nèi)容來(lái)確定訪問(wèn)的范圍。




2.robots.txt文件制作與上傳

打開(kāi)Windows的記事本工具,在記事本中添加如下代碼,然后將其保存為robots.xt文件。

在記事本中編寫(xiě)robots.txt文件效果

保存好robots.txt文件后,將其上傳到網(wǎng)站的根目錄下,就可以控制搜索引擎蜘蛛的爬行軌跡了。

鑒于robots.txt中包含了很多指令,互聯(lián)網(wǎng)上也有很多在線的工具用來(lái)生成這個(gè)文件,比如Chinaz的站長(zhǎng)工具,網(wǎng)址為http://tool.chinaz.com/robots/,因此上面的示例可以用這個(gè)工具輕松實(shí)現(xiàn)

使用站長(zhǎng)工具編寫(xiě)robots.txt文件

在編寫(xiě)完成后,單擊下面的“生成”按鈕,將會(huì)在頁(yè)面底部的文本框控件中生成robots.txt文件內(nèi)容,將其復(fù)制到文本文件中并保存,即可創(chuàng)建robots.xt文件

上一篇:死鏈文件制作及提交,站點(diǎn)地圖 Sitemap的優(yōu)化       下一篇: .htaccess的其他SEO用途

提供全國(guó)各地網(wǎng)站建設(shè)服務(wù)

備案系統(tǒng)認(rèn)證 舉報(bào)不良網(wǎng)站 我們的支付方式 AAA級(jí)信用
廣州萬(wàn)戶(hù)網(wǎng)絡(luò)信息科技有限公司 旗下網(wǎng)站建設(shè)品牌:萬(wàn)戶(hù)網(wǎng) m.moderntrendboss.com 版權(quán)所有 ©2000-2019 All Rights Reserved
網(wǎng)站備案編號(hào):粵ICP備15049595號(hào) 地址:廣州市番禺區(qū)大石街北聯(lián)圍仔工業(yè)路2號(hào)E座305
電話:020-85421558   傳真:020-88140140   郵編:510515