Yuk Buat Website Harga Mulai Rp800.000 saja! Klik Disini Sekarang

Harga mulai Rp800.000 saja! Chat Disini

Penjelasan Fungsi dan Cara Gunakan Robots.txt Pada Website

Robots.txt adalah file teks sederhana yang berfungsi sebagai petunjuk bagi mesin pencari tentang halaman atau bagian situs web mana yang boleh atau tidak boleh di-crawl dan diindeks. File ini ditempatkan di direktori root situs web dan membantu dalam mengontrol akses robot pencari ke situs tersebut.

Penjelasan Fungsi dan Cara Gunakan Robots.txt Pada Website

Menggunakan robots.txt penting karena memberi kontrol kepada pemilik situs atas informasi mana yang diakses dan diindeks oleh mesin pencari. Hal ini membantu mencegah crawling konten yang tidak relevan atau sensitif, mengoptimalkan penggunaan sumber daya crawler, dan dapat membantu mencegah munculnya konten duplikat di hasil pencarian.

Manfaat utama dari robots.txt termasuk pengelolaan sumber daya server dengan lebih efektif, melindungi privasi konten tertentu, dan membantu menjaga kesehatan SEO situs web. Dengan memberi petunjuk kepada mesin pencari tentang bagian mana dari situs yang harus diindeks, pemilik situs dapat lebih efisien dalam pengelolaan konten yang muncul di hasil pencarian.

Di dalam file robots.txt, direktif seperti Allow dan Disallow digunakan untuk mengatur akses. Allow memberi izin kepada mesin pencari untuk mengakses bagian tertentu dari situs, sedangkan Disallow mencegah akses. Penting untuk mencatat bahwa standar penggunaan direktif ini bisa berbeda antar mesin pencari.

Pada WordPress, robots.txt default umumnya mengizinkan akses ke semua konten, tetapi bisa disesuaikan. Contoh default untuk situs non-WordPress mungkin melarang akses ke direktori tertentu atau jenis file tertentu untuk menjaga privasi atau keamanan situs.

Contoh Kasus Penggunaan Robots.txt

Blokir semua robot kecuali Google:

User-agent: Google
Allow: /

Blokir semua robot kecuali Google dan Bing:

User-agent: Google
Allow: /
User-agent: Bing
Allow: /

User-agent: *
Disallow: /

Blokir robot yang tidak diinginkan (bad robots):

User-agent: BadBot # nama robot yang tidak diinginkan
Disallow: /

Blokir akses ke URL tertentu:

User-agent: *
Disallow: /private/ # Blokir akses ke direktori 'private'
Disallow: /tmp-*   # Blokir akses ke URL yang dimulai dengan 'tmp-'

Dengan memahami dan menggunakan robots.txt secara efektif, pemilik situs dapat memastikan bahwa mesin pencari mengindeks situs mereka dengan cara yang paling menguntungkan.

Daftar Nama Bad Robot (BadBot) Yang Harus Anda Block

  1. MJ12Bot
  2. PetalBot
  3. AspiegelBot
  4. AhrefsBot
  5. SEMrushBot
  6. DotBot
  7. MauiBot
  8. Alexibot
  9. AppEngine
  10. B2w/0.1
  11. BackDoorBot/1.0
  12. BecomeBot
  13. BlekkoBot
  14. Blexbot
  15. BlowFish/1.0
  16. Bookmark search tool
  17. BotRightHere
  18. CherryPicker
  19. EmailCollector
  20. EmailSiphon
  21. WebBandit
  22. ExtractorPro
  23. CopyRightCheck
  24. Crescent
  25. SiteSnagger
  26. ProWebWalker

Cara Membuat Robots.txt

Membuat file robots.txt untuk situs web Anda melibatkan beberapa langkah sederhana. Berikut adalah proses langkah demi langkah:

1. Identifikasi Kebutuhan Situs Anda

Tentukan halaman atau direktori mana yang ingin Anda blokir dari mesin pencari.

Pertimbangkan apakah ada crawler khusus (seperti bot pencarian gambar) yang Anda ingin izinkan atau tolak.

2. Membuat File Robots.txt

Buka teks editor pilihan Anda, seperti Notepad atau VSCode.

Buat file baru dan simpan dengan nama robots.txt.

3. Menulis Aturan Dasar

Mulai dengan menentukan user agent menggunakan User-agent:, diikuti oleh nama bot.

Contoh: User-agent: * (aplikasi aturan untuk semua bot).

Tentukan halaman atau direktori yang diizinkan atau ditolak.

Contoh: Disallow: /private/ (blokir akses ke direktori /private).

Atau: Allow: /public/ (izinkan akses ke direktori /public).

4. Menambahkan Aturan Spesifik

Untuk bot tertentu, Anda dapat menulis aturan khusus.

Contoh:

User-agent: Googlebot (aturan hanya untuk Googlebot).

Disallow: /no-google/ (blokir Googlebot dari direktori /no-google).

5. Menggunakan Wildcards

Gunakan tanda * sebagai wildcard untuk mencakup berbagai URL.

Contoh: Disallow: /tmp-* (blokir semua URL yang dimulai dengan /tmp-).

6. Menentukan Lokasi Sitemap

Jika Anda memiliki sitemap, tambahkan URL sitemap di akhir file.

Contoh: Sitemap: http://www.contoh.com/sitemap.xml.

7. Simpan dan Upload File

Simpan file robots.txt.

Upload file ke direktori root situs web Anda menggunakan FTP atau file manager hosting.

8. Menguji Robots.txt

Gunakan alat pengujian robots.txt yang disediakan oleh Google di Google Search Console untuk memastikan file Anda bekerja seperti yang diharapkan.

Periksa apakah ada kesalahan atau peringatan.

9. Monitoring dan Pembaruan

Secara berkala periksa dan perbarui robots.txt Anda sesuai kebutuhan.

Pastikan file tetap relevan dengan struktur situs dan kebijakan SEO Anda.

Ingatlah bahwa robots.txt adalah petunjuk dan bukan penegakan yang ketat. Bot tertentu mungkin memilih untuk mengabaikan aturan yang Anda tetapkan. Selalu pastikan bahwa informasi sensitif di situs web Anda dilindungi dengan cara lain selain hanya mengandalkan robots.txt.

Daftar Nama Good Robots (GoodBot)

Memilih bot yang diizinkan mengakses situs web Anda bergantung pada kebutuhan SEO dan manajemen konten Anda. Berikut adalah beberapa bot utama yang direkomendasikan untuk diizinkan karena mereka berperan penting dalam indeksasi dan SEO:

  1. Googlebot: Ini adalah bot crawling utama Google. Mengizinkan Googlebot memastikan bahwa konten situs Anda diindeks dan muncul dalam hasil pencarian Google.
  2. Bingbot: Bot ini digunakan oleh mesin pencari Microsoft Bing. Mengizinkan Bingbot membantu situs Anda tampil dalam hasil pencarian Bing.
  3. Yahoo! Slurp: Meskipun Yahoo sekarang menggunakan Bing untuk hasil pencarian, mereka masih memiliki bot sendiri, dan mengizinkannya bisa bermanfaat.
  4. DuckDuckBot: Bot dari DuckDuckGo, mesin pencari yang menekankan privasi. Mengizinkannya membantu situs Anda diindeks oleh DuckDuckGo.
  5. Baiduspider: Jika audiens target Anda termasuk pengguna di China, mengizinkan bot ini penting karena Baidu adalah mesin pencari terkemuka di China.
  6. YandexBot: Bagi mereka yang menargetkan pasar Rusia, Yandex adalah mesin pencari utama di sana, sehingga mengizinkan YandexBot sangat penting.
  7. Sogou Spider: Bot lain yang penting untuk pasar China, dari mesin pencari Sogou.
  8. Exabot: Bot ini digunakan oleh Exalead, mesin pencari yang berbasis di Eropa.
  9. Facebook External Hit: Meskipun bukan mesin pencari, bot ini digunakan oleh Facebook untuk mengambil pratinjau tautan yang dibagikan di platformnya.
  10. Twitterbot: Mirip dengan Facebook, Twitter menggunakan bot ini untuk mengambil data untuk pratinjau tautan yang dibagikan di Twitter.

Selalu pastikan bahwa file robots.txt Anda dikonfigurasi dengan benar untuk mengizinkan bot ini jika mereka sesuai dengan strategi SEO dan target audiens Anda. Ini akan memastikan bahwa situs web Anda diindeks dengan baik oleh mesin pencari utama dan platform media sosial.

X
Promo Buat Website cuma Rp800.000,- Saja! Yuk Chat Disini
B Here
X
X

Skill

Skill dan tools yang bisa kami gunakan dan atau yang kami familiar dengannya untuk membantu proses web design, SEO dan digital marketing untuk para customer.
  • All
  • Web Design
  • Digital Marketing
  • Research
  • SEO
  • Wordpress
  • Other
  • 2captcha
  • ACF
  • AIO
  • AWS
  • Accuranker
  • Adobe XD
  • Advanced Script
  • Ahrefs
  • Any Indexer
  • Backlinks.com
  • Beaver Builder
  • Bootstrap
  • Bricks builder
  • CWP
  • Captcha Breaker
  • Carbon Fields
  • ChatGPT
  • Chrome
  • Cloudflare
  • Cloudfront
  • Codepen
  • Content Generator
  • Copilot
  • Cyberduck
  • Cyberpanel
  • DIVI
  • Death By Captcha
  • DirectAdmin
  • Eagle
  • EasyEngine
  • Edge
  • Electron
  • Elementor
  • Fiddler
  • Figma
  • Filezila
  • Firefox
  • Flexbox
  • Flickity
  • GSA SER
  • GSAP
  • Git
  • GitHub
  • Google Ads
  • Google Ads MCC
  • Google Adsense
  • Google Analytics
  • Google Chrome Extension
  • Google DNS
  • Google Data Studio
  • Google Search Console
  • Google Tag Manager
  • Grid
  • Image converter
  • InterWorx
  • Isotop
  • Joomla!
  • Kontraz
  • Laragon
  • Laravel
  • Lightstail
  • Linode
  • Majestic SEO
  • Moz
  • NodeJs
  • Notepad++
  • Oxygen builder
  • PHP
  • Photoshop
  • Piwix
  • Platform Identifier
  • Plesk
  • Powertoys
  • Proxy Scrapper
  • Putty
  • ReactJs
  • Recoda
  • Responsiveapp
  • S3
  • SEO Indexer
  • Scrapebox
  • Script Organizer
  • SenuXe
  • Solid SEO VPS
  • StormProxy
  • Sublime Text 3
  • Tailwind
  • URL Redirect Pro
  • Ubbersugest
  • Ubot studio
  • VSCode
  • Vanilla JS
  • Vultr
  • WAMPP
  • WHM cPanel
  • Weebly
  • WinSCP
  • Woocommerce
  • Wordpress
  • Wpcodebox
  • XAMPP
  • XnConvert
  • Yoast
  • Zion builder
  • jQuery
  • js/css libraries