Masalah Cakupan indeks gres terdeteksi untuk situs https://www.namadomain.com/. Yth. pemilik https://www.namadomain.com/, Search Console telah mengidentifikasi bahwa situs Anda terpengaruh oleh 1 problem gres terkait Cakupan indeks.
Artinya, Cakupan indeks sanggup terkena dampak negatif di hasil Google Penelusuran. Sebaiknya Anda meninjau dan mempertimbangkan untuk memperbaiki problem ini. Masalah gres ditemukan: Di indeks, meski diblokir oleh robots.txt.
Apakah anda mendapat pesan menyerupai itu juga di Search Console atau di Alat Webmaster Google? Tak perlu risau.
Para pengguna situs web atau blog platform blogger, secara default perintah yang ada pada robots.txt memang memblokir URLs atau halaman-halaman yang dimaksud. Di bawah ini yaitu pengaturan atau format file robots.txt default dari blogger:
Jika dilakukan pengujian pada robots.txt terkait problem cakupan indeks, maka akan ditemukan bab dari robots.txt yang menghalangi perayapan atau indeks.
Persoalan yang ada di gambar, memperlihatkan kejelasan terkait permasalahan yang gotong royong bukanlah masalah. Perintah Disallow: /search pada robots.txt yaitu pengaturan default dari blogger itu sendiri.
Pengaturan robots.txt yang menyerupai itu secara spesifik (khusus) bertujuan agar Googlebot tidak melaksanakan indeks pada halaman hasil penelusuran (/search).
Walaupun Googlebot tidak boleh untuk melaksanakan indeks, bukan berarti bab tersebut tidak di indeks. Cara kerja Googlebot atau Spiderbot memang menyerupai itu! Lalu apa maksudnya pesan itu?
Googlebot hanya ingin memastikan dan melaksanakan validasi terkait larangan melaksanakan indeks pada bab /search yaitu atas kehendak anda sendiri sebagai webmaster.
Silakan pergi ke Dasbor Blogger Setelan Preferensi penelusuran Edit pada bab robots.txt khusus.
Setelah anda berada di pengaturan robots.txt, ganti /search menjadi /p/about.html pada bab Disallow: /search dan hasil hasilnya akan menyerupai ini:
Artinya, Cakupan indeks sanggup terkena dampak negatif di hasil Google Penelusuran. Sebaiknya Anda meninjau dan mempertimbangkan untuk memperbaiki problem ini. Masalah gres ditemukan: Di indeks, meski diblokir oleh robots.txt.
![]() |
Masalah Cakupan Indeks di Search Console |
Para pengguna situs web atau blog platform blogger, secara default perintah yang ada pada robots.txt memang memblokir URLs atau halaman-halaman yang dimaksud. Di bawah ini yaitu pengaturan atau format file robots.txt default dari blogger:
User-agent: Mediapartners-Google Disallow: User-agent: * Disallow: /search Allow: / Sitemap: https://www.namadomain.com/sitemap.xml
Jika dilakukan pengujian pada robots.txt terkait problem cakupan indeks, maka akan ditemukan bab dari robots.txt yang menghalangi perayapan atau indeks.
![]() |
Cakupan Indeks Dilarang Robots TXT |
Pengaturan robots.txt yang menyerupai itu secara spesifik (khusus) bertujuan agar Googlebot tidak melaksanakan indeks pada halaman hasil penelusuran (/search).
Walaupun Googlebot tidak boleh untuk melaksanakan indeks, bukan berarti bab tersebut tidak di indeks. Cara kerja Googlebot atau Spiderbot memang menyerupai itu! Lalu apa maksudnya pesan itu?
Googlebot hanya ingin memastikan dan melaksanakan validasi terkait larangan melaksanakan indeks pada bab /search yaitu atas kehendak anda sendiri sebagai webmaster.
Cara Perbaiki Masalah Cakupan Indeks di Search Console
Apakah perlu diperbaiki? Silakan anda sesuaikan dengan kebutuhan. Saran saya, biarkan tetap default dan anda tidak perlu mengubah atau memperbaikinya. Bagi yang ingin mengubah perintah robots.txt, berikut cara yang perlu dilakukan.Silakan pergi ke Dasbor Blogger Setelan Preferensi penelusuran Edit pada bab robots.txt khusus.
![]() |
Edit robots.txt Blogger |
User-agent: Mediapartners-Google Disallow: User-agent: * Disallow: /p/about.html Allow: / Sitemap: https://www.namadomain.com/sitemap.xml
Catatan: Bagian URL dengan kata namadomain ubah dengan nama domain situs web atau blog anda.
Halaman statis yang tidak boleh untuk di indeks Googlebot pada pengaturan robots.txt, sanggup diadaptasi dengan impian dan tentunya sesuaikan juga dengan URL halaman statis di situs anda.
Anda sanggup melarang halaman statis menyerupai about, contact, privacy policy, dsb. Bahkan anda sanggup juga melarang beberapa halaman statis sekaligus dengan teladan pengaturan robots.txt sebagai berikut:
User-agent: Mediapartners-Google Disallow: User-agent: * Disallow: /p/about.html Disallow: /p/contact.html Allow: / Sitemap: https://www.namadomain.com/sitemap.xml
Kalau anda masih ragu untuk mengatur robots.txt dengan perintah atau format menyerupai itu, saya sarankan anda melaksanakan pengujian robots.txt terlebih dahulu. Caranya sebagai berikut: Kunjungi alat pengujian robots TXT. Pilih properti yang terverifikasi dan lakukan pengujian.
![]() |
Pengujian Robots TXT |
Di halaman uji coba robots TXT, hapus kata /search kemudian ganti dengan URL halaman statis /p/about.html. Jangan lupa isi URL yang ingin di uji untuk mengetahui apakah pengaturan tersebut berhasil mengatasi problem cakupan indeks di search console.
![]() |
Cakupan Indeks Diizinkan Robots TXT |
Lihat gambar di atas, pengujian robots TXT memperlihatkan keterangan diizinkan, itu artinya problem cakupan indeks di search console selesai hanya dengan cara mengganti /search menjadi /p/about.html. Semoga bermanfaat.
Komentar
Posting Komentar