Kamis, 09 Februari 2017

Internet Marketing Pasuruan Cara Cara Mengatasi URL Dicekal Robots.txt



Internet Marketing Pasuruan Cara Cara Mengatasi URL Dicekal Robots.txt


Yup, entah apa masalahnya jika tetap dibiarkan URL dicekal oleh robot.txt. Namun jangan khawatir, ketika ada URL yang dicekal atau di blocked by robot.txt ternyata ada solusinya. Apa itu? Silahkan disimak solusi berikut ini:


+++++++++++++++++++++
User-agent: Mediapartners-Google
Disallow:

User-agent: *
Disallow: /search
Allow: /

Sitemap: http://faridelly.blogspot.com/feeds/posts/default?orderby=UPDATED
+++++++++++++++++++++++++++++++++

Ganti dengan :


        User-agent: Mediapartners-Google
        Disallow:

        User-agent: *
        Disallow:
        Allow: /

        Sitemap:http://faridelly.blogspot.com/feeds/posts/default?orderby=UPDATED

+++++++++++++++++++++++++++++++++++

Dan anda ganti http://faridelly.blogspot.com dengan URL Blog anda kemudian:
  1. Login ke blog anda
  2. Pergi ke Setelan >> Preferense Penelusuran
  3. Pada kolom Perayapan dan pengindeksan pilih edit di menu Robots.txt
  4. Kemudian Aktifkan Robots.txt Khusus
  5. Masukkan kode yang kedua yang telah dirubah tadi (yang telah dihilangkan tulisan "/search" tulisan yang bertanda merah tadi)

Catatan:

Kode yang anda masukkan pada "Robots.txt Khusus" pastikan sudah anda hilangkan tulisan "/seach" pada Disallow. Karena jika masih ada tulisan "/search" pada tulisan Disallow atau Disallow masih tertulis seperti ini "Disallow:/" masih ada garis miringnya saja, itu artinya anda melarang Google untuk mengindeks konten blog anda.

Jika masih bingung atau ada masukan lain dengan cara ini, selahkan tinggalkan komentar anda. Semoga membantu.

Sebelum




sesudah