Linux/Nginx查看搜索引擎蜘蛛爬蟲的行為發(fā)布者:本站 時(shí)間:2020-05-14 15:05:20
做好網(wǎng)站SEO優(yōu)化的第一步就是首先讓蜘蛛爬蟲經(jīng)常來你的網(wǎng)站進(jìn)行光顧,下面的Linux命令可以讓你清楚的知道蜘蛛的爬行情況。下面我們針對(duì)nginx服務(wù)器進(jìn)行分析,日志文件所在目錄:/usr/local/nginx/logs/access.log,access.log這個(gè)文件記錄的應(yīng)該是最近一天的日志情況,首先請(qǐng)看看日志大小,如果很大(超過50MB)建議別用這些命令分析,因?yàn)檫@些命令很消耗CPU,或者更新下來放到分析機(jī)上執(zhí)行,以免影響網(wǎng)站的速度。
Linux shell命令
1. 百度蜘蛛爬行的次數(shù)
cat access.log | grep Baiduspider | wc
最左面的數(shù)值顯示的就是爬行次數(shù)。
2. 百度蜘蛛的詳細(xì)記錄(Ctrl C可以終止)
cat access.log | grep Baiduspider
也可以用下面的命令:
cat access.log | grep Baiduspider | tail -n 10
cat access.log | grep Baiduspider | head -n 10
只看最后10條或最前10條,這用就能知道這個(gè)日志文件的開始記錄的時(shí)間和日期。
3. 百度蜘蛛抓取首頁的詳細(xì)記錄
cat access.log | grep Baiduspider | grep “GET / HTTP”
百度蜘蛛好像對(duì)首頁非常熱愛每個(gè)鐘頭都來光顧,而谷歌和雅虎蜘蛛更喜歡內(nèi)頁。
4. 百度蜘蛛派性記錄時(shí)間點(diǎn)分布
cat access.log | grep “Baiduspider ” | awk ‘{print $4}’
5. 百度蜘蛛爬行頁面按次數(shù)降序列表
cat access.log | grep “Baiduspider ” | awk ‘{print $7}’ | sort | uniq -c | sort -r
文中的Baiduspider 改成Googlebot都可以查看谷歌的數(shù)據(jù),鑒于大陸的特殊性,大家應(yīng)該對(duì)百度的log更為關(guān)注。
附:(Mediapartners-Google)Google adsense蜘蛛的詳細(xì)爬行記錄
cat access.log | grep Mediapartners
Mediapartners-Google是什么呢?Google adsense廣告之所以能與內(nèi)容相關(guān),因?yàn)槊總€(gè)包含著adsense的廣告被訪問后,很快就有個(gè)Mediapartners-Google蜘蛛來到這個(gè)頁面,所以幾分鐘后再刷新就能顯示相關(guān)性廣告了,真厲害?。?br />
選擇我們,優(yōu)質(zhì)服務(wù),不容錯(cuò)過
1. 優(yōu)秀的網(wǎng)絡(luò)資源,強(qiáng)大的網(wǎng)站優(yōu)化技術(shù),穩(wěn)定的網(wǎng)站和速度保證
2. 15年上海網(wǎng)站建設(shè)經(jīng)驗(yàn),優(yōu)秀的技術(shù)和設(shè)計(jì)水平,更放心
3. 全程省心服務(wù),不必?fù)?dān)心自己不懂網(wǎng)絡(luò),更省心。
------------------------------------------------------------
24小時(shí)聯(lián)系電話:021-58370032