Cara Memperbaiki Duduk Perkara Cakupan Indeks Di Search Console

Masalah Cakupan indeks gres terdeteksi untuk situs https://www.namadomain.com/. Yth. pemilik https://www.namadomain.com/, Search Console telah mengidentifikasi bahwa situs Anda terpengaruh oleh 1 problem gres terkait Cakupan indeks.

Artinya, Cakupan indeks sanggup terkena dampak negatif di hasil Google Penelusuran. Sebaiknya Anda meninjau dan mempertimbangkan untuk memperbaiki problem ini. Masalah gres ditemukan: Di indeks, meski diblokir oleh robots.txt.
 Masalah Cakupan indeks gres terdeteksi untuk situs https Cara Memperbaiki Masalah Cakupan Indeks di Search Console
Masalah Cakupan Indeks di Search Console
Apakah anda mendapat pesan menyerupai itu juga di Search Console atau di Alat Webmaster Google? Tak perlu risau.

Para pengguna situs web atau blog platform blogger, secara default perintah yang ada pada robots.txt memang memblokir URLs atau halaman-halaman yang dimaksud. Di bawah ini yaitu pengaturan atau format file robots.txt default dari blogger:

User-agent: Mediapartners-Google Disallow:   User-agent: * Disallow: /search Allow: /  Sitemap: https://www.namadomain.com/sitemap.xml

Jika dilakukan pengujian pada robots.txt terkait problem cakupan indeks, maka akan ditemukan bab dari robots.txt yang menghalangi perayapan atau indeks.
 Masalah Cakupan indeks gres terdeteksi untuk situs https Cara Memperbaiki Masalah Cakupan Indeks di Search Console
Cakupan Indeks Dilarang Robots TXT
Persoalan yang ada di gambar, memperlihatkan kejelasan terkait permasalahan yang gotong royong bukanlah masalah. Perintah Disallow: /search pada robots.txt yaitu pengaturan default dari blogger itu sendiri.

Pengaturan robots.txt yang menyerupai itu secara spesifik (khusus) bertujuan agar Googlebot tidak melaksanakan indeks pada halaman hasil penelusuran (/search).

Walaupun Googlebot tidak boleh untuk melaksanakan indeks, bukan berarti bab tersebut tidak di indeks. Cara kerja Googlebot atau Spiderbot memang menyerupai itu! Lalu apa maksudnya pesan itu?

Googlebot hanya ingin memastikan dan melaksanakan validasi terkait larangan melaksanakan indeks pada bab /search yaitu atas kehendak anda sendiri sebagai webmaster.

Cara Perbaiki Masalah Cakupan Indeks di Search Console

Apakah perlu diperbaiki? Silakan anda sesuaikan dengan kebutuhan. Saran saya, biarkan tetap default dan anda tidak perlu mengubah atau memperbaikinya. Bagi yang ingin mengubah perintah robots.txt, berikut cara yang perlu dilakukan.

Silakan pergi ke Dasbor Blogger Setelan Preferensi penelusuran Edit pada bab robots.txt khusus.
 Masalah Cakupan indeks gres terdeteksi untuk situs https Cara Memperbaiki Masalah Cakupan Indeks di Search Console
Edit  robots.txt Blogger
Setelah anda berada di pengaturan robots.txt, ganti /search menjadi /p/about.html pada bab Disallow: /search dan hasil hasilnya akan menyerupai ini:

User-agent: Mediapartners-Google Disallow:   User-agent: * Disallow: /p/about.html Allow: /  Sitemap: https://www.namadomain.com/sitemap.xml
Catatan: Bagian URL dengan kata namadomain ubah dengan nama domain situs web atau blog anda.
Halaman statis yang tidak boleh untuk di indeks Googlebot pada pengaturan robots.txt, sanggup diadaptasi dengan impian dan tentunya sesuaikan juga dengan URL halaman statis di situs anda.

Anda sanggup melarang halaman statis menyerupai about, contact, privacy policy, dsb. Bahkan anda sanggup juga melarang beberapa halaman statis sekaligus dengan teladan pengaturan robots.txt sebagai berikut:

User-agent: Mediapartners-Google Disallow:  User-agent: * Disallow: /p/about.html Disallow: /p/contact.html Allow: /  Sitemap: https://www.namadomain.com/sitemap.xml

Kalau anda masih ragu untuk mengatur robots.txt dengan perintah atau format menyerupai itu, saya sarankan anda melaksanakan pengujian robots.txt terlebih dahulu. Caranya sebagai berikut: Kunjungi alat pengujian robots TXT. Pilih properti yang terverifikasi dan lakukan pengujian.
 Masalah Cakupan indeks gres terdeteksi untuk situs https Cara Memperbaiki Masalah Cakupan Indeks di Search Console
Pengujian Robots TXT
Di halaman uji coba robots TXT, hapus kata /search kemudian ganti dengan URL halaman statis /p/about.html. Jangan lupa isi URL yang ingin di uji untuk mengetahui apakah pengaturan tersebut berhasil mengatasi problem cakupan indeks di search console.

 Masalah Cakupan indeks gres terdeteksi untuk situs https Cara Memperbaiki Masalah Cakupan Indeks di Search Console
Cakupan Indeks Diizinkan Robots TXT
Lihat gambar di atas, pengujian robots TXT memperlihatkan keterangan diizinkan, itu artinya problem cakupan indeks di search console selesai hanya dengan cara mengganti /search menjadi /p/about.html. Semoga bermanfaat.

Komentar