SEO OkuluSeoSchool.level3.nameSeoSchool.lesson 3
SeoSchool.level3.name
SeoSchool.lesson 3/10
15 dk okuma
2026-01-04

Log Dosyası Analizi: Googlebot'u Matrix Üzerinden Görmek

Log Dosyası Analizi, Googlebot'un sitenizi nasıl taradığının ham gerçeğini ortaya çıkarır. Tarama Bütçesini optimize etmeyi, sahte botları belirlemeyi ve örümcek tuzaklarını düzeltmeyi öğrenin.

Eğer Google Search Console (GSC), Google'ın görmenizi istediği "küratörlü" raporsa, Sunucu Logları ham, filtrelenmemiş gerçekliktir. Onlar SEO'nun "Matrix" kodudur.

GSC'ye baktığınızda, bir veri örneği görürsünüz. Sunucu loglarınıza baktığınızda, Googlebot'un sunucunuza yaptığı her bir isteği, milisaniyesine kadar görürsünüz.

Bu rehber, SEO dünyasının para birimi olan Tarama Bütçenizi (Crawl Budget) optimize etmek için bu dosyaları nasıl okuyacağınızı açıklar.

1. Log Dosyası Analizi Nedir?

Biri (veya bir şey) web sitenizi her ziyaret ettiğinde, sunucunuz etkileşimi bir metin dosyasına kaydeder.

Bir Log Girişinin Anatomisi

Bir erişim logundaki tek bir kod satırı genellikle şöyle görünür:

66.249.66.1 - - [04/Jan/2026:10:00:00 +0000] "GET /product-A HTTP/1.1" 200 0 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"

Bizim için önemli olan şunlardır:

  • IP Adresi (66.249.66.1): Kim ziyaret ediyor. (Googlebot'un belirli IP aralıkları vardır).
  • Zaman Damgası: Tam olarak ne zaman geldiler.
  • Yöntem (GET): Ne yaptılar (genellikle bir sayfa istediler).
  • URL (/product-A): İstedikleri sayfa.
  • Durum Kodu (200): Sunucu başarılı oldu mu? (200 Tamam, 404 Eksik, 500 Hata).
  • Kullanıcı Aracısı: Ziyaretçinin kimlik kartı (örneğin, "Googlebot").

2. "Tarama Bütçesi" Ekonomisi

Tarama Bütçesi, Googlebot'un belirli bir zaman diliminde sitenizde taramaya istekli ve muktedir olduğu sayfa sayısıdır.

Googlebot'u, sınırlı bir zamanı olan bir süpermarket müşterisi (siteniz) olarak düşünün.

  • Tarama Talebi: Google'ın ne kadar taramak istediği (popülerliğinize dayalı).
  • Tarama Hızı Sınırı: Sunucunuzun yavaşlamadan önce ne kadarını kaldırabileceği.

Hedef: Google'ın sınırlı zamanını "çöp" (404'ler, giriş sayfaları, garip filtreler) yerine para sayfalarınızda (ürünler, makaleler) harcadığından emin olun.

3. Gerçeği Görmek: Logların Ortaya Çıkardıkları

Log analizi, GSC'nin genellikle gizlediği veya geciktirdiği sorunları ortaya çıkarır.

A. Sahte Googlebotlar

Herkes güvenliğinizi atlatmak için Kullanıcı Aracısı dizesinde botuna "Googlebot" adını verebilir.

Log Kontrolü: IP Adresini doğrulamalısınız. Gerçek Googlebotlar belirli Google IP aralıklarından gelir. Çoğu log analizi aracı bu doğrulamayı Ters DNS araması yoluyla otomatik olarak yapar.

Neden önemlidir: Google'ın sizi günde 10.000 kez taradığını düşünebilirsiniz, ancak bunlardan 9.000'i verilerinizi çalan kazıyıcılar olabilir.

B. Örümcek Tuzakları (Sonsuz Döngüler)

Bazen, bir site yapısı yanlışlıkla sonsuz URL'ler oluşturur.

Örnek: example.com/shoes?color=red&size=10&color=red&size=10...

Log Belirtisi: Biraz farklı görünen ama etkili bir şekilde aynı olan URL'lere binlerce isabet görürsünüz. Bu, tüm bütçenizi tek bir sayfada yakar.

C. Yetim Sayfalar

GSC size yalnızca bildiği sayfalardan bahseder. Loglar size Google'ın bulduğu ama sizin unuttuğunuz sayfalardan bahseder.

Senaryo: "Eski Sayfa A"ya olan bağlantıyı menünüzden sildiniz, ancak harici bir site ona bağlantı verdiği için Google onu her gün taramaya devam ediyor. Bütçeyi bir hayalet sayfada harcıyorsunuz.

D. "Tazelik" Boşluğu

Soru: "Makalemi Pazartesi günü güncelledim. Google değişiklikleri ne zaman gördü?"

  • GSC Cevabı: "Son tarama: 4 Oca."
  • Log Cevabı: "Googlebot Smartphone 09:42 ve 11:15'te ziyaret etti." (Hassas zamanlama).

4. Tarama Bütçenizi Nasıl Optimize Edersiniz

Log analiziniz israf gösteriyorsa, düzeltmek için bu adımları kullanın.

Adım 1: 404 Sızıntılarını Tıkayın

Google'ın isabetlerinin %10'u 404 (Bulunamadı) hatalarıyla sonuçlanıyorsa, bütçenizin %10'unu çöpe atıyorsunuz.

Düzeltme: Bu eski URL'leri ilgili yeni sayfalara yönlendirin (301) veya gerçekten gitmişlerse ölmelerine izin verin (410). Onlara dahili olarak bağlantı vermeyi bırakın.

Adım 2: Yararsız Parametreleri Engelleyin

Googlebot zamanını ?price=low-to-high veya ?session_id=123 tarayarak mı harcıyor?

Düzeltme: Bu kalıplara İzin Vermemek için robots.txt dosyanızı kullanın.

User-agent: Googlebot
Disallow: /*?price=
Disallow: /*?session_id=

Bu Google'a şunu söyler: "Zamanını burada harcama."

Adım 3: Sunucuyu Hızlandırın (İlk Bayt Süresi)

Doğrudan bir ilişki vardır: Daha Hızlı Sunucu = Daha Yüksek Tarama Bütçesi. Sunucunuzun yanıt vermesi 2 saniye sürüyorsa Googlebot bekler. 200 ms sürerse, Googlebot aynı sürede 10 sayfa tarayabilir.

5. Ticaretin Araçları

Metin dosyalarını gözlerinizle okumanıza gerek yok.

  • Screaming Frog Log Analyser: Endüstri standardı. Log dosyanızı sürükleyip bırakırsınız ve onu grafiklere dönüştürür.
  • Splunk / Datadog: Devasa web siteleri için kurumsal düzeyde araçlar.
  • Komut Satırı (grep): Devasa bir metin dosyasını hızlıca filtrelemek isteyen geliştiriciler için.

Komut: grep "Googlebot" access.log | grep "404" (Googlebot'un bir 404'e isabet ettiği tüm zamanları göster).

Sonuç

Log Dosyası Analizi, Google'ın ne yaptığını tahmin etmekle bilmek arasındaki farktır. Küçük siteler (1.000 sayfadan az) için isteğe bağlıdır. Ancak pSEO siteleri, e-Ticaret mağazaları veya büyük yayıncılar için zorunludur.

Binlerce sayfa oluşturuyorsanız, Google'ın sunduklarınızı gerçekten "yiyip yemediğini" bilmeniz gerekir.

Öğrendiklerinizi Uygulamaya Hazır mısınız?

Bilginizi pSEO Wizard ile uygulamaya koyun ve binlerce SEO optimize edilmiş sayfa oluşturun.

Şimdi Oluşturmaya Başla