Panduan Setting Robots.txt Blogger untuk SEO Maksimal
Robots.txt adalah file konfigurasi penting yang mengatur bagaimana mesin pencari merayapi dan mengindeks halaman blog Anda. Dengan pengaturan yang tepat, Anda bisa meningkatkan kualitas indeks di Google dan menghindari masalah duplikat konten. Panduan ini membahas cara membuat dan mengatur robots.txt di Blogger secara aman, SEO friendly, dan valid untuk AdSense.
Mengapa Robots.txt Penting?
File robots.txt membantu mengarahkan bot mesin pencari seperti Googlebot agar hanya mengindeks halaman yang relevan. Tanpa pengaturan ini, halaman yang tidak penting seperti hasil pencarian internal atau versi mobile dengan parameter ?m=1
bisa ikut terindeks dan menurunkan kualitas SEO.
Cara Mengaktifkan Custom Robots.txt di Blogger
- Buka Dashboard Blogger Anda.
- Pilih menu Settings → Crawlers and indexing.
- Aktifkan opsi Enable custom robots.txt.
- Tempelkan kode robots.txt yang sudah diatur (contoh di bawah).
- Klik Save untuk menyimpan pengaturan.
Contoh Robots.txt Aman & SEO Friendly
User-agent: * Disallow: /search Disallow: /*?m=1 Disallow: /*&m=1 Allow: / Sitemap: https://tipstechpraktis.blogspot.com/sitemap.xml
Penjelasan:
Disallow: /search
→ Mencegah halaman hasil pencarian internal diindeks.Disallow: /*?m=1
dan/*&m=1
→ Mencegah versi mobile duplikat.Allow: /
→ Mengizinkan halaman utama dan postingan diindeks.Sitemap:
→ Memberikan peta situs agar mesin pencari mudah merayapi.
Tips Tambahan untuk Menghindari Masalah Pengalihan
- Gunakan template responsive agar Blogger tidak otomatis menambah
?m=1
. - Pastikan setiap link internal mengarah ke URL final tanpa parameter.
- Jangan ubah slug URL setelah postingan dipublikasikan.
FAQ - Setting Robots.txt di Blogger
- Apakah robots.txt wajib di Blogger?
- Tidak wajib, tapi sangat direkomendasikan untuk kontrol indeks yang lebih baik dan SEO optimal.
- Apakah robots.txt ini aman untuk AdSense?
- Ya, pengaturan ini tidak memblokir halaman yang dibutuhkan Google AdSense.
- Apa yang terjadi jika salah setting robots.txt?
- Jika terlalu ketat, halaman penting bisa terblokir dari indeks Google. Selalu uji dengan URL Inspection di Google Search Console.
Kesimpulan
Pengaturan robots.txt yang benar di Blogger membantu menjaga kualitas indeks dan menghindari masalah seperti duplikat konten atau redirect error akibat ?m=1
. Gunakan contoh yang sudah disediakan, dan selalu pantau hasilnya di Google Search Console untuk memastikan blog Anda tetap optimal di hasil pencarian.