我們都知道,網(wǎng)站有robots這種東西,所以有很多的站長(zhǎng)就問(wèn)了,什么是robots文件?robots.txt文件格式是怎么樣的?如何創(chuàng)建robots.txt文件?接下來(lái)我們?yōu)榇蠹以敿?xì)解答,如果大家想知道答案,就跟著小編往下看看吧!
什么是robots文件?
robots是站點(diǎn)與spider溝通的重要渠道,站點(diǎn)通過(guò)robots文件聲明該網(wǎng)站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。
請(qǐng)注意,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請(qǐng)勿建立robots.txt文件。為了避免站長(zhǎng)在設(shè)置robots文件時(shí)出現(xiàn),百度站長(zhǎng)平臺(tái)特別推出了robots工具,幫助站長(zhǎng)正確設(shè)置robots。
robots.txt文件格式是怎么樣的?
User-agent: *
Disallow:
User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個(gè)通配符,也可以是具體的搜索引擎蜘蛛,如Baiduspider 百度蜘蛛。
Disallow: 按設(shè)置禁止訪問(wèn)某些頁(yè)面,不加內(nèi)容,表示無(wú)限制。
如何創(chuàng)建robots.txt文件?
1.當(dāng)網(wǎng)站本身并不存在robots文件的情況下,新建一個(gè)純文本文檔,命名為robots.txt,在此文件中進(jìn)行編輯,完成后傳到對(duì)應(yīng)網(wǎng)站的根目錄下即可。
2.網(wǎng)站本身存在robots文件的情況下,下載原robots文件進(jìn)行編輯,完成后傳到對(duì)應(yīng)網(wǎng)站的根目錄下。
以上就是為您整理關(guān)于robots.txt文件的基本知識(shí),快為你的網(wǎng)站創(chuàng)建robots.txt文件吧,注意別把robots.txt寫(xiě)錯(cuò)為robot.txt了。