お疲れ様です。岡田です。
前回、このブログのインデックスステータスが心停止状態になっているよ~という記事
(前回の記事:Bloggerでインデックスステータスがずっと0 その1)
の末尾で「カステラ食べたい」と書いていたんですが、なんと後日リーダーがお土産でカステラをくださいました。
ありがとうございました。
その後インデックスステータスがどうなったか
いろいろやってみた前回の記事ですが、あれから3週間(もたってしまいましたが)インデックスステータスは「ちょっと」増えました。
ちょっと増えた。 |
よ、、よかった、、、!!
導入してから2週間くらいは、数値が反映されないそうです。
(参考:Googleウェブマスターツールのその後「インデックスステータス」の数値がいつまでたってもゼロ?)
(参考:インデックスステータスが0件から変動しない件について)
よかったのはよかったのですが、4って少なくない?もっとあるんですけど。。。。
と思っていたら、大きな問題が発覚しました
ロボットによってブロックされたページがたくさん増えてた
こんなにブロックされてたなんて |
4ページがインデックスに登録された裏で、38ページものページがブロックされていました。
「robots.txt ファイルでブロックされているため、Google がアクセスできなかった URL です。」
ということは、前回設定したrobots.txtが悪さをしているみたい。
User-agent:* Allow: /search/label/ Disallow: /*archive Sitemap: http://stpsysdev.blogspot.jp/feeds/posts/default?orderby=UPDATED
基本方針としては、ラベルごとにページをまとめればページの内容がある程度そろうはずなので、ページとしても強くなるんじゃないかと思って、「Allow:/search/label/」を入れているのだけど、
このページたちはクロールされていないのかな?
どちらにせよ、robot.txtはこちらの意向通りに書かれているみたいなので、このままにしておくことにします。
サイトマップの中に表示されている「インデックスに登録済み」のページは「42」になっているから、
この「42」のうち「38」がブロックされているっていう意味なのかな。
ブロックされたということは、アーカイブページをブロックされたということだよね。
逆にインデックスに登録されたページがなんなのか、知りたいなぁ、、、、
続きます。
0 コメント:
コメントを投稿