Wenn Sie Tausende von Seiten verwalten (wie in einem Programmatic SEO-Projekt) oder riesige Datensätze analysieren, wird Excel früher oder später abstürzen. Python ist der Industriestandard, um diese Grenzen zu überwinden. Es ermöglicht Ihnen, repetitive Aufgaben zu automatisieren, sich mit APIs zu verbinden und Millionen von Datenzeilen in Sekunden zu analysieren.
Sie müssen kein Softwareingenieur sein, um Python für SEO zu verwenden. Sie müssen nur ein paar spezifische Bibliotheken kennen, um Stunden manueller Arbeit durch ein einziges Skript zu ersetzen.
1. Der SEO-Python-Stack
Während Python Tausende von Bibliotheken hat, verwenden SEO-Profis hauptsächlich diese vier:
- Pandas: Der „Excel-Killer“. Er ermöglicht Ihnen, Datentabellen (DataFrames) mit Millionen von Zeilen sofort zu manipulieren.
- Requests: Ermöglicht Ihrem Skript, Webseiten wie ein Browser zu besuchen, um Statuscodes zu überprüfen oder HTML herunterzuladen.
- BeautifulSoup: Ein Parser, der HTML-Code liest und es Ihnen ermöglicht, bestimmte Elemente (wie H1-Tags, Meta-Beschreibungen oder Preise) zu extrahieren.
- Advertools: Eine spezialisierte SEO-Bibliothek, die für die Analyse von SERPs, das Crawlen von Websites und die Verwaltung von GSC-Daten entwickelt wurde.
2. Praktischer Anwendungsfall: Der „Bulk Status Checker“
Stellen Sie sich vor, Sie haben eine Liste von 10.000 URLs und müssen wissen, welche defekt sind (404). Eine manuelle Überprüfung ist unmöglich.
Hier ist ein einfaches Skript mit der requests-Bibliothek, um dies zu automatisieren:
import requests
import pandas as pd
# 1. Liste der zu prüfenden URLs
urls = [
"https://example.com",
"https://example.com/broken-page",
"https://example.com/about"
]
results = []
# 2. Schleife durch jede URL
for url in urls:
try:
response = requests.get(url, timeout=5)
# Daten speichern
results.append({
"URL": url,
"Status Code": response.status_code,
"Redirect": response.url if response.history else "Kein Redirect"
})
except:
results.append({"URL": url, "Status Code": "Fehler", "Redirect": "-"})
# 3. In einer lesbaren Tabelle speichern (DataFrame)
df = pd.DataFrame(results)
print(df)
# Ausgabebeispiel:
# URL Status Code Redirect
# 0 https://example.com 200 Kein Redirect
# 1 https://example.com/broken 404 Kein Redirect3. Praktischer Anwendungsfall: Extrahieren von Metadaten (Scraping)
Wenn Sie die Title-Tags der Top-100-Seiten Ihrer Konkurrenten analysieren müssen, um Muster zu finden, können Sie BeautifulSoup verwenden.
from bs4 import BeautifulSoup
import requests
url = "https://example.com/blog-post"
response = requests.get(url)
# HTML-Inhalt parsen
soup = BeautifulSoup(response.content, 'html.parser')
# Spezifische Elemente extrahieren
title = soup.title.string
h1 = soup.find('h1').text
meta_desc = soup.find('meta', attrs={'name': 'description'})['content']
print(f"Titel: {title}")
print(f"H1: {h1}")
print(f"Beschreibung: {meta_desc}")4. Praktischer Anwendungsfall: Arbeiten mit APIs (GSC)
Anstatt jeden Tag in der Google Search Console (GSC) auf „Exportieren“ zu klicken, können Sie Python verwenden, um die Daten automatisch abzurufen. Dies ist für die Sicherung Ihrer Daten unerlässlich, da GSC nur einen Verlauf von 16 Monaten speichert.
Der Workflow:
- Aktivieren Sie die Google Search Console API in der Google Cloud Platform.
- Laden Sie Ihre Datei
credentials.jsonherunter. - Verwenden Sie eine Wrapper-Bibliothek wie
git+https://github.com/joshcarty/google-searchconsole, um die Authentifizierung zu vereinfachen.
import searchconsole
# Authentifizieren
account = searchconsole.authenticate(client_config='credentials.json')
webproperty = account['https://www.example.com/']
# Daten anfordern
report = webproperty.query.range('today', days=-30).dimension('query').get()
# Top 5 Suchanfragen drucken
for row in report[:5]:
print(row.query, row.clicks, row.impressions)5. Datenanalyse mit Pandas
In pSEO müssen Sie häufig Datensätze zusammenführen (z. B. eine Liste von „Städten“ mit einer Liste von „Bevölkerungsdaten“). In Excel erfordert dies einen langsamen SVERWEIS. In Python geht das sofort.
import pandas as pd
# Zwei CSV-Dateien laden
df_cities = pd.read_csv("cities.csv") # Spalten: [City, State]
df_stats = pd.read_csv("population.csv") # Spalten: [City, Population]
# Sie zusammenführen (SVERWEIS)
df_merged = pd.merge(df_cities, df_stats, on="City", how="left")
# Filtern: Nur Städte mit mehr als 100.000 Einwohnern anzeigen
df_big_cities = df_merged[df_merged['Population'] > 100000]
# In neue CSV für Ihr pSEO-Tool exportieren
df_big_cities.to_csv("pseo_ready_data.csv", index=False)Fazit
Python verwandelt Sie von einem SEO-Spezialisten in einen SEO-Ingenieur. Es ermöglicht Ihnen, Datensätze zu verarbeiten, die Excel zum Absturz bringen würden, und tägliche Überprüfungen zu automatisieren, die sonst Stunden dauern würden. Da Sie sich für Programmatic SEO interessieren, ist die Beherrschung von Pandas für die Datenbereinigung die wirkungsvollste Fähigkeit, die Sie erlernen können.