Robots.TXT Fetch Failed, Bagaimana Memperbaikiny?


Status
Not open for further replies.

Abi Yusuf

Beginner 1.0
Halo sebelumnya dan salam kenal untuk semua member DiskusiWebHosting.

Tanggal 15 Desember lalu salah satu domain saya expired dan saya tidak langsung renew melainkan saya baru renew pas tanggal 17 kemarin.

Kini status robots.txt domain saya fetch failed. Ini pesan seluruhnya di Google Search Console:

robots.txt fetch failed
You have a robots.txt file that we are currently unable to fetch. In such cases we stop crawling your site until we get hold of a robots.txt, or fall back to the last known good robots.txt file.


Saya sudah hubungi domain registrar saya---domain dan hosting berbeda provider---kata mereka masalah bukan di mereka namun di penyedia hosting.

Namun masalahnya penyedia hosting saya tidak menanggapi padahal saya sudah kirim tiket dari tanggal 18 namun hingga kini tidak ada jawaban.

Google tidak bisa mengakses blog saya bahkan ketika saya Fetch As Google statusnya "Temporarily Unreachable". Dan trafik blog saya terus turun dan halaman-halaman blog juga turun rangkingnya.

Saya baca diberbagai situs dan forum katanya ini masalah sementara, paling lama 1 atau 2 hari akan beres dengan sendirinya namun ini sudah 3 hari statusnya masih begini.

Bisa tolong apa yang harus saya lakukan, karena sejauh ini hosting provider saya sepertinya tidak bisa diandalkan.

Terima kasih.
 
0. Semoga kedepan ga lupa lagi renew domainnya,
1. Biasanya saat domain expired NSnya berubah ke NS expired, jd pastikan NS domainnya sdh mengarah ke hostingnya setelah renew
2. Jika NSnya sdh mengarah, coba test ping ke domainnya dan coba akses, jika semuanya aman,
3. Coba test dari beberapa tools jika aman semuanya berarti, ga ada issue, mungkin bs dicoba tunggu beberapa hari sesuai hasil baca2nya dan atau bs dicoba fetch atau reindex dari sisi Google Search Console nya lg

CMIIW
 
Hi pluto, makasih respondnya, kalau blognya memang bisa dibuka dan tidak masalahnya. Tapi masalah Googlenya tidak bisa mengakses robots.txt dan juga tidak bisa fetch as Google.

Kira2 maksimal perlu beberapa hari agar statusnya normal, dan apakah selain menunggu ada hal lain yang bisa kita modif?
 
Hi pluto, makasih respondnya, kalau blognya memang bisa dibuka dan tidak masalahnya. Tapi masalah Googlenya tidak bisa mengakses robots.txt dan juga tidak bisa fetch as Google.

Kira2 maksimal perlu beberapa hari agar statusnya normal, dan apakah selain menunggu ada hal lain yang bisa kita modif?
Mungkin butuh sekitar 3 bulan, sambil menunggu bisa dilakukan create submit sitemap ulang ke beberapa search engine.
 
Last edited:
3 Bulan? Masa selama itu mas? Yah habis sudah trafik saya kalau harus nunggu selama itu:(.
Misal sebelumnya ada beberapa page website anda telah menduduki halaman pertama google, ketika website expired begitu lama, maka page anda di search engine akan dihapus dan digeser website lainnya. Lha ketika mau terindex ke halaman pertama seperti sediakala juga butuh waktu. Bisa lebih cepat atau lama, CMIIW
 
Misal sebelumnya ada beberapa page website anda telah menduduki halaman pertama google, ketika website expired begitu lama, maka page anda di search engine akan dihapus dan digeser website lainnya. Lha ketika mau terindex ke halaman pertama seperti sediakala juga butuh waktu. Bisa lebih cepat atau lama, CMIIW
OOT dikit, terkait SEO pak @UNMETERED ini sudah kenyang pengalaman dan sudah banyak hal yang telah dilakukan untuk mencapai target, saya banyak belajar dari pendapat2 beliau juga.
Jadi, yang ingin beliau sampaikan, semua tidak berjalan secepat seperti apa yang kita inginkan.
 
Status
Not open for further replies.
Back
Top