Eğer Google Search Console (GSC), Google'ın görmenizi istediği "küratörlü" raporsa, Sunucu Logları ham, filtrelenmemiş gerçekliktir. Onlar SEO'nun "Matrix" kodudur.
GSC'ye baktığınızda, bir veri örneği görürsünüz. Sunucu loglarınıza baktığınızda, Googlebot'un sunucunuza yaptığı her bir isteği, milisaniyesine kadar görürsünüz.
Bu rehber, SEO dünyasının para birimi olan Tarama Bütçenizi (Crawl Budget) optimize etmek için bu dosyaları nasıl okuyacağınızı açıklar.
1. Log Dosyası Analizi Nedir?
Biri (veya bir şey) web sitenizi her ziyaret ettiğinde, sunucunuz etkileşimi bir metin dosyasına kaydeder.
Bir Log Girişinin Anatomisi
Bir erişim logundaki tek bir kod satırı genellikle şöyle görünür:
66.249.66.1 - - [04/Jan/2026:10:00:00 +0000] "GET /product-A HTTP/1.1" 200 0 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"Bizim için önemli olan şunlardır:
- IP Adresi (66.249.66.1): Kim ziyaret ediyor. (Googlebot'un belirli IP aralıkları vardır).
- Zaman Damgası: Tam olarak ne zaman geldiler.
- Yöntem (GET): Ne yaptılar (genellikle bir sayfa istediler).
- URL (/product-A): İstedikleri sayfa.
- Durum Kodu (200): Sunucu başarılı oldu mu? (200 Tamam, 404 Eksik, 500 Hata).
- Kullanıcı Aracısı: Ziyaretçinin kimlik kartı (örneğin, "Googlebot").
2. "Tarama Bütçesi" Ekonomisi
Tarama Bütçesi, Googlebot'un belirli bir zaman diliminde sitenizde taramaya istekli ve muktedir olduğu sayfa sayısıdır.
Googlebot'u, sınırlı bir zamanı olan bir süpermarket müşterisi (siteniz) olarak düşünün.
- Tarama Talebi: Google'ın ne kadar taramak istediği (popülerliğinize dayalı).
- Tarama Hızı Sınırı: Sunucunuzun yavaşlamadan önce ne kadarını kaldırabileceği.
Hedef: Google'ın sınırlı zamanını "çöp" (404'ler, giriş sayfaları, garip filtreler) yerine para sayfalarınızda (ürünler, makaleler) harcadığından emin olun.
3. Gerçeği Görmek: Logların Ortaya Çıkardıkları
Log analizi, GSC'nin genellikle gizlediği veya geciktirdiği sorunları ortaya çıkarır.
A. Sahte Googlebotlar
Herkes güvenliğinizi atlatmak için Kullanıcı Aracısı dizesinde botuna "Googlebot" adını verebilir.
Log Kontrolü: IP Adresini doğrulamalısınız. Gerçek Googlebotlar belirli Google IP aralıklarından gelir. Çoğu log analizi aracı bu doğrulamayı Ters DNS araması yoluyla otomatik olarak yapar.
Neden önemlidir: Google'ın sizi günde 10.000 kez taradığını düşünebilirsiniz, ancak bunlardan 9.000'i verilerinizi çalan kazıyıcılar olabilir.
B. Örümcek Tuzakları (Sonsuz Döngüler)
Bazen, bir site yapısı yanlışlıkla sonsuz URL'ler oluşturur.
Örnek: example.com/shoes?color=red&size=10&color=red&size=10...
Log Belirtisi: Biraz farklı görünen ama etkili bir şekilde aynı olan URL'lere binlerce isabet görürsünüz. Bu, tüm bütçenizi tek bir sayfada yakar.
C. Yetim Sayfalar
GSC size yalnızca bildiği sayfalardan bahseder. Loglar size Google'ın bulduğu ama sizin unuttuğunuz sayfalardan bahseder.
Senaryo: "Eski Sayfa A"ya olan bağlantıyı menünüzden sildiniz, ancak harici bir site ona bağlantı verdiği için Google onu her gün taramaya devam ediyor. Bütçeyi bir hayalet sayfada harcıyorsunuz.
D. "Tazelik" Boşluğu
Soru: "Makalemi Pazartesi günü güncelledim. Google değişiklikleri ne zaman gördü?"
- GSC Cevabı: "Son tarama: 4 Oca."
- Log Cevabı: "Googlebot Smartphone 09:42 ve 11:15'te ziyaret etti." (Hassas zamanlama).
4. Tarama Bütçenizi Nasıl Optimize Edersiniz
Log analiziniz israf gösteriyorsa, düzeltmek için bu adımları kullanın.
Adım 1: 404 Sızıntılarını Tıkayın
Google'ın isabetlerinin %10'u 404 (Bulunamadı) hatalarıyla sonuçlanıyorsa, bütçenizin %10'unu çöpe atıyorsunuz.
Düzeltme: Bu eski URL'leri ilgili yeni sayfalara yönlendirin (301) veya gerçekten gitmişlerse ölmelerine izin verin (410). Onlara dahili olarak bağlantı vermeyi bırakın.
Adım 2: Yararsız Parametreleri Engelleyin
Googlebot zamanını ?price=low-to-high veya ?session_id=123 tarayarak mı harcıyor?
Düzeltme: Bu kalıplara İzin Vermemek için robots.txt dosyanızı kullanın.
User-agent: Googlebot
Disallow: /*?price=
Disallow: /*?session_id=Bu Google'a şunu söyler: "Zamanını burada harcama."
Adım 3: Sunucuyu Hızlandırın (İlk Bayt Süresi)
Doğrudan bir ilişki vardır: Daha Hızlı Sunucu = Daha Yüksek Tarama Bütçesi. Sunucunuzun yanıt vermesi 2 saniye sürüyorsa Googlebot bekler. 200 ms sürerse, Googlebot aynı sürede 10 sayfa tarayabilir.
5. Ticaretin Araçları
Metin dosyalarını gözlerinizle okumanıza gerek yok.
- Screaming Frog Log Analyser: Endüstri standardı. Log dosyanızı sürükleyip bırakırsınız ve onu grafiklere dönüştürür.
- Splunk / Datadog: Devasa web siteleri için kurumsal düzeyde araçlar.
- Komut Satırı (grep): Devasa bir metin dosyasını hızlıca filtrelemek isteyen geliştiriciler için.
Komut: grep "Googlebot" access.log | grep "404" (Googlebot'un bir 404'e isabet ettiği tüm zamanları göster).
Sonuç
Log Dosyası Analizi, Google'ın ne yaptığını tahmin etmekle bilmek arasındaki farktır. Küçük siteler (1.000 sayfadan az) için isteğe bağlıdır. Ancak pSEO siteleri, e-Ticaret mağazaları veya büyük yayıncılar için zorunludur.
Binlerce sayfa oluşturuyorsanız, Google'ın sunduklarınızı gerçekten "yiyip yemediğini" bilmeniz gerekir.