Internet Marketing Pasuruan Cara Cara Mengatasi URL Dicekal Robots.txt
Yup,
entah apa masalahnya jika tetap dibiarkan URL dicekal oleh robot.txt. Namun
jangan khawatir, ketika ada URL yang dicekal atau di blocked by robot.txt
ternyata ada solusinya. Apa itu? Silahkan disimak solusi berikut ini:
+++++++++++++++++++++
User-agent:
Mediapartners-Google
Disallow:
User-agent:
*
Disallow:
/search
Allow: /
Sitemap:
http://faridelly.blogspot.com/feeds/posts/default?orderby=UPDATED
+++++++++++++++++++++++++++++++++
Ganti
dengan :
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow:
Allow: /
Sitemap:http://faridelly.blogspot.com/feeds/posts/default?orderby=UPDATED
+++++++++++++++++++++++++++++++++++
Dan anda ganti http://faridelly.blogspot.com dengan URL Blog anda
kemudian:
- Login ke blog anda
- Pergi ke Setelan >> Preferense Penelusuran
- Pada kolom Perayapan dan pengindeksan pilih edit di menu Robots.txt
- Kemudian Aktifkan Robots.txt Khusus
- Masukkan kode yang kedua yang telah dirubah tadi (yang telah dihilangkan tulisan "/search" tulisan yang bertanda merah tadi)
Catatan:
Kode yang anda masukkan pada "Robots.txt Khusus" pastikan sudah anda hilangkan tulisan "/seach" pada Disallow. Karena jika masih ada tulisan "/search" pada tulisan Disallow atau Disallow masih tertulis seperti ini "Disallow:/" masih ada garis miringnya saja, itu artinya anda melarang Google untuk mengindeks konten blog anda.
Jika masih bingung atau ada masukan lain dengan cara ini, selahkan tinggalkan komentar anda. Semoga membantu.
Sebelum
sesudah