Restricted by Robots.txt angkanya banyak banget?

Buat para Blogger tentu mengenal webmaster tools, setelah kita mensubmit blog beserta sitemapnya kesitu dan masuk ke dashboardnya disitu ada Search queries, Links to your site, Sitemaps dan juga Crawl errors. Pada Crawl errors terdapat Not found dan Restricted by robots.txt. Sering kali disitu muncul angka yg didalamnya berupa laporan link mana aja yang diangggap bermasalah. Paling sering yang muncul adalah link-link label.

Restricted robots.txt berdasar halaman2 blog yang gagal dimasuki oleh robot Google yg memang sengaja dibatasi, misal pada script related post, halaman label, dan laen-laen defaultx Google dgn robot.txt-nya menerapkan sepertt itu salah satunya utk menghindari duplicat content. Sering juga terjadi pada halaman yang mengandung banyak link.

Restricted by Robots.txt angkanya banyak banget

Begitu jg laporan not found link, angka dsitu menunjukkan halaman2 yang gagal diakses karena tidak dtemukan meskipun kalo kita ikuti link tersebut sebenernya halaman itu ada.

Tak usah diambil pusing, biarkan saja.
Tp jika merasa risih dengan laporan-laporan itu, tambahin rel nofollow tiap kali mencantumkan link ke halaman label blog, lumayan bisa mengurangi laporan2 yg bikin kalang kabut itu.

Contohnya jika ingin menambahkan rel nofollow pada link halaman lebal sebagai berikut:

yang semula

<a href="http://www.wooles.my.id/search/label/Jailbreak">Jailbreak iPad</a>

menjadi;

<a href="http://www.wooles.my.id/search/label/Jailbreak" rel='nofollow'>Jailbreak iPad</a>

Ketika Google melewatinya akan diabaikan, link tersebut hanya untuk dibaca pengunjung site jika ditambahkan atribut nofollow.

Kebalikannya adalah dofollow jika tidak ditambahkan rel nofollow, google akan memeriksa link tersebut. Link label secara default sudah dibatasi, jadi ketika Google akan lakukan pemeriksaan lebih jauh terhadap link tersebut ia akan gagal masuk dan mencatat laporan bahwa halaman link tersebut gagal.