Google schaltet „&num=100“ ab: Warum Ranking-Reports aktuell schwanken – und wie wir das sauber lösen

Inhaltsübersicht
Google schaltet „&num=100 ab“: Warum Ranking-Reports aktuell schwanken – und wie wir das sauber lösen
Seit Kurzem unterstützt Google den URL-Parameter &num=100 nicht mehr. Dieser Parameter lieferte bisher bis zu 100 Ergebnisse pro SERP-Seite und war ein fester Bestandteil vieler Rank-Tracking-Setups. Die Folge: Abfragen müssen nun über mehrere Seiten (je 10 Ergebnisse) gepaged werden – das macht Tracking langsamer, teurer und in tieferen Positionen vorübergehend ungenauer. In diesem Beitrag erklären wir, was sich geändert hat, warum Berichte „spinnen“ können und wie wir bei Handwerks-, Industrie- und B2B-Kunden damit umgehen.
Kurzübersicht
- Was ist passiert? Der Parameter
&num=100wird nicht mehr unterstützt. Google liefert faktisch wieder 10 Ergebnisse pro Seite. - Was merkt ihr? Volatilere Positionsdaten und Sichtbarkeitskurven, vor allem jenseits der Top 20 (Seite 3–10).
- Warum ist das wichtig? Rank-Tracker und SERP-APIs müssen 10× mehr Requests ausführen; tiefe Long-Tail-Messungen sind aktuell weniger stabil.
Was war &num=100 – und warum fällt es ins Gewicht?
&num=100 erlaubte das Laden von 100 organischen Treffern pro SERP. Viele Tools konnten damit in einem einzigen Abruf die Positionen 1–100 erfassen. Ohne diesen Parameter braucht es bis zu zehn Seitenabrufe – inklusive strengeren Anti-Bot-Schranken, Captchas und Rate-Limits. Das erhöht den Aufwand und die potenziellen Fehlerquellen.
Auswirkungen auf eure Reports
1) Sprunghafte Impressionen & Durchschnittspositionen
In der Google Search Console können rund um die Umstellung plötzliche Änderungen auftreten. Grund: Eine Impression zählt nur, wenn ein Ergebnis auf der tatsächlich geladenen Seite erscheint. Wenn nun weniger tiefe SERP-Seiten geladen werden, sinken „künstliche“ Impressionen für Treffer jenseits der Seite 2–10 – ohne dass eure reale Nachfrage zwingend gefallen ist.
2) Geringere Genauigkeit ab Position 21–100
Weil Tracking-Anbieter nun mehrseitig pagen müssen, steigen Latenzen, Timeouts und Blockings. Das macht Daten besonders im Bereich Platz 30–70 vorübergehend unzuverlässiger. Top-20-Daten bleiben hingegen relativ stabil und entscheidungsrelevant.
3) Schwankendere Sichtbarkeitsindizes
Tools, die Sichtbarkeit stark über Long-Tail-Keywords und tiefe SERP-Layer modellieren, müssen ihre Messlogik anpassen. Bis die Anbieter umgestellt sind, können Kurven sichtbarer „zittern“.
Wie reagieren SEO-Tools?
Die großen Rank-Tracker und SERP-APIs arbeiten an Workarounds: sauberes Paging, bessere Deduplizierung, robustere Rotationen und neue Limits. Kurzfristig kommunizieren viele Anbieter eingeschränkte Tiefe (100-Ergebnis-Listen) und verlängerte Laufzeiten. Mittelfristig ist mit stabileren Pipelines zu rechnen – teils verbunden mit angepassten Abfragekontingenten oder Preisen.
Häufige Missverständnisse
- „Unsere Rankings sind abgestürzt.“ Nicht zwingend. Prüft organischen Traffic, Leads und Umsatz. Die Unschärfe betrifft vor allem Messung/Abdeckung, nicht automatisch eure reale Nachfrage.
- „SEO lohnt sich jetzt weniger.“ Im Gegenteil: Gerade wenn Deep-Tracking schwieriger wird, zählen starke Inhalte, Technik und Marke umso mehr.
- „Top-20 sind unbrauchbar.“ Falsch. Entscheidend sind die Begriffe, die wirklich Anfragen bringen. Genau dort bleiben die Daten aussagekräftig.
Unsere Empfehlungen für Handwerk, Industrie & B2B
- Reporting neu baselinen: Vorher-/Nachher-Zeiträume rund um die Umstellung sauber trennen und im Dashboard klar annotieren.
- Top-Keyword-Fokus: Geschäftskritische Money-Keywords (Leistung × Region × Intent) engmaschig überwachen; Long-Tail weiterhin tracken, aber vorsichtig interpretieren.
- Datenquellen triangulieren: GSC-Query-Reports, unabhängige Rank-Tracker und Server-Logs kombinieren statt einer Zahl blind zu vertrauen.
- Qualität vor Quantität: Leistungsseiten schärfen, interne Verlinkung stärken, E-E-A-T-Signale ausbauen, Ladezeiten & UX optimieren.
- Transparente Kommunikation: Im Monatsreport den Messwechsel erklären, Auswirkungen benennen und auf geschäftsrelevante KPIs (Leads, Aufträge) fokussieren.
Was wir bei Augustin Marketing konkret tun
- Dashboards annotieren (Umstellungszeitraum) und eine neue Vergleichsbasis absetzen.
- „Top-20-First“ Monitoring für Kernbegriffe je Gewerke/Region mit erhöhter Frequenz.
- Mehrquellen-Validierung via GSC, unabhängigen Trackern und Logfile-Signalen.
- Content & UX priorisieren: Leistungsseiten, regionale Relevanz, Conversion-Optimierung.
- Tool-Monitoring: Wir verfolgen die Anbieter-Updates und passen Abfrageroutinen laufend an.
FAQ
„Warum fehlen plötzlich Plätze 30–70?“
Durch das nötige Paging steigen Timeouts, Captchas und Deduplizierungsfehler. Viele Anbieter kalibrieren gerade. Das betrifft vor allem tiefe Ebenen.
„Ab wann sind die Tools wieder exakt?“
Wenn die neuen Pipelinen stabil laufen (Paging, Kontingente, Anti-Bot-Maßnahmen). Bis dahin rechnen wir mit mehr Volatilität in tiefen Positionen – die Top-Keywords bleiben belastbar.
„Müssen wir unser Budget ändern?“
Nicht zwingend. Sinnvoller ist es, Budgets auf Maßnahmen mit direktem Business-Impact zu konzentrieren (Seitenqualität, Conversion, regionale Autorität), während wir das Tracking verlässlicher machen.
Zusammenfassend lässt sich sagen:
Die Abschaltung von &num=100 ist ein messmethodischer Einschnitt, kein automatischer Ranking-Crash. Sie verfälscht historische Vergleiche und macht tiefe SERP-Ebenen vorübergehend unpräziser. Wer jetzt ruhig bleibt, Reports sauber neu baselinet und auf Top-Keywords sowie echte Geschäftsziele fokussiert, trifft weiterhin sichere Entscheidungen. Wir begleiten euch dabei transparent und datengetrieben.
Über den Autor:

Gordon Augustin
Gordon Augustin ist Gründer und Geschäftsführer von Augustin Marketing und verantwortet die SEO-Strategien, die Website-Konzepte und die SEO-Beratung, die sich an B2B-Unternehmen richtet.


