Das Beben in den SERPs: Wie Google die SEO-Welt mit einem kleinen Parameter erschüttert und unsere Daten neu kalibriert

SERP-Update: num=100 weg
SERP-Update: num=100 weg

Ein unauffälliger Parameter, eine stille Änderung – und plötzlich steht die gesamte SEO-Branche Kopf: Google hat die Unterstützung für den legendären &num=100‑Parameter eingestellt. Was auf den ersten Blick wie eine technische Randnotiz wirkt, entpuppt sich als tiefgreifende Verschiebung, die externe SEO‑Tools vor immense Herausforderungen stellt und sogar die vertrauten Daten in der Google Search Console neu interpretiert. Für SEO‑Experten und Anfänger gleichermaßen ist dies ein Weckruf, Datenquellen kritisch zu hinterfragen und Strategien anzupassen.

Google entfernt num=100: Was die SERP‑Änderung bedeutet

Jahrelang war es ein offenes Geheimnis unter SEO‑Profis: Durch das Hinzufügen von &num=100 zur URL einer Google‑Suchergebnisseite (SERP) konnte man statt der standardmäßigen 10 organischen Ergebnisse gleich 100 Listings auf einer Seite anzeigen lassen. Dieser „Trick“ war vor allem für automatisierte Systeme und externe SEO‑Tools unerlässlich, um Ranking‑Daten effizient und in großem Umfang zu sammeln.

Doch um den 10. bis 12. September 2025 herum bemerkte die SEO‑Community, dass Google diese Funktion still und leise eingestellt hatte. Plötzlich lieferte der Parameter nur noch 10 Ergebnisse oder zeigte ein inkonsistentes Verhalten – ein Hinweis auf einen Live‑Test oder eine schrittweise Abschaltung.

Die Gründe für diesen Schritt hat Google bisher nicht offiziell kommuniziert. Die Spekulationen in der Branche sind jedoch vielfältig und plausibel:

  • Kampf gegen KI‑Bots und Scraping: Viele Branchenexperten, darunter Ann Smarty (Practical Ecommerce, US‑Fachpublikation für E‑Commerce & SEO), vermuten, dass Google Massenabfragen durch KI‑Bots eindämmen will, die den Parameter für sogenannte „Fan‑out‑Searches“ nutzten (breit aufgefächerte SERP‑Abrufe, die mit wenigen Requests möglichst viele Ergebnisse/Varianten laden – z. B. via &num=100). Ivan Palii (Sitechecker, SEO‑Tool‑Plattform für Website‑Audits & Rank‑Tracking) theoretisiert, Google wolle die Kosten für nicht‑menschliche Anfragen senken und es KI‑Systemen wie ChatGPT erschweren, sich auf Live‑SERPs zu verlassen. Ryan Jones (US‑SEO‑Experte und Agenturstratege) geht sogar so weit zu sagen, Googles Kampf gegen aggressives Scraping durch KI‑Tools werde die meisten SEO‑Tools empfindlich treffen.
  • Kosteneinsparungen: Das Ausliefern großer Seiten mit aggregierten Daten erhöht Latenz und Systemlast. Aurélien Bardon, französischer SEO‑Experte, vermutet, Google wolle schlicht Kosten sparen, da das kostenlose Bereitstellen umfangreicher SERPs für bezahlte Dienste letztlich Google die Stromrechnung beschert.
  • Geschäftliche Aspekte: Durch die Einschränkung des Zugriffs könnte Google die Wirtschaftsweise von Anbietern verändern, die Suchdaten weiterverkaufen (SerpAPI Roadmap, 11.09.2025). Ebenso denkbar: ein Versuch, Wettbewerber im Bereich KI‑Suche auszubremsen, die Googles über 25 Jahre aufgebauten Index scrapten, um rasch eigene Indizes aufzubauen (Ann Smarty, Practical Ecommerce, 15.09.2025; Brodie Clark, 15./16.09.2025).
Siehe auch  Sechs Gesundheits-Tipps für Bildschirmarbeiter

Auswirkungen auf SEO‑Tools: Ahrefs, Semrush, SISTRIX & Co.

Die Auswirkungen auf externe SEO‑Tools, die sich auf das Scraping von SERPs verlassen, waren unmittelbar und drastisch. Viele Ranking‑Tracker zeigten Ausfälle, fehlende Daten oder Fehlermeldungen. Die „Kollateralschäden“ für diese Tools sind erheblich.

  • Explodierende Kosten und Komplexität: Um die gleichen Datenmengen wie zuvor zu sammeln, müssen Tools nun pro 100 Ergebnisse zehn separate Anfragen statt einer einzigen stellen (SerpAPI Public Roadmap – Issue #3032, 11.09.2025; DataForSEO Update „Critical Updates to Depth“, 13.09.2025). Das vervielfacht Rechenaufwand, Infrastrukturkosten und Energieverbrauch (DataForSEO Update). Preiserhöhungen erscheinen wahrscheinlich (höhere Abrufmengen/Default‑Tiefe 10; vgl. DataForSEO Update, SISTRIX Status, 14.09.2025).
  • Einschränkung der Tracking‑Tiefe: Mehrere große Anbieter haben bereits reagiert oder Anpassungen angekündigt:
    • Tim Soulo, CMO von Ahrefs, deutete auf LinkedIn an, dass Ahrefs Rankings möglicherweise nur noch für die ersten beiden Seiten (Top‑20) erfasst, um finanziell tragfähig zu bleiben.
    • AccuRanker bestätigte, standardmäßig nur noch die Top‑20 statt der Top‑100 zu verfolgen.
    • SISTRIX gab bekannt, derzeit nur noch die ersten 10 Ergebnisse aufzuzeichnen, was zu einem sichtbaren Rückgang erfasster Keywords und als „verloren“ markierter Rankings führte. Für Keywords, die den SISTRIX Visibility Index beeinflussen, will das Unternehmen sein Crawling anpassen, um weiterhin 100 organische Positionen zu erfassen. Für andere Keywords wird die Tracking‑Tiefe nach Suchvolumen und Relevanz gesteuert. Bereits im Juni 2023 hatte SISTRIX darauf hingewiesen, dass Google die Bereitstellung von 100 organischen Treffern verringerte (FAQ, 07.07.2023).
    •  Semrush versicherte, dass die Top‑10 weiterhin präzise erfasst werden und temporäre Lösungen implementiert wurden (X-Statement, 15.09.2025; News-Post, 15.09.2025). Die Aktualisierungsfrequenz könnte bei einigen Rankings auf alle zwei Tage statt täglich umgestellt werden; tiefere Ranking‑Daten können vorübergehend abweichen (vgl. News-Post). Der Semrush Sensor zeigte seit dem 10. September 2025 zeitweise keine Daten mehr an (beobachtet u. a. bei Brodie Clark, 15./16.09.2025).

Die Zukunft des umfassenden Ranking‑Trackings ist unklar; sie wird voraussichtlich teurer und weniger detailliert. Mehrere Anbieter und Analysten – darunter DataForSEO (13.09.2025), AccuRanker und Tim Soulo (Ahrefs, 14.–16.09.2025) – bewerten umfassendes Top‑100‑Ranking‑Tracking in seiner bisherigen Form als wirtschaftlich kaum noch tragfähig.

Google Search Console & „Große Entkopplung“: Auswirkungen der num=100-Änderung

Ein überraschender Nebeneffekt der Änderung ist die plötzliche Anomalie in der Google Search Console (GSC). Viele Website‑Betreiber, darunter Brodie Clark, beobachteten einen deutlichen Rückgang der Desktop‑Impressionen bei gleichzeitigem Anstieg der durchschnittlichen Position.

  • Der „Bot‑Bereinigungseffekt“: Google hat keine offizielle Erklärung geliefert. Naheliegend ist, dass die Änderungen in den Leistungsdaten auf bisherigen Traffic von Drittanbieter‑Bots zurückzuführen sind – nicht auf menschliche Nutzer (Brodie Clark, 15./16.09.2025; Search Engine Roundtable, 15.09.2025). Die „verlorenen“ Impressionen stammten von URLs, die sowohl Bot‑Scrapern als auch menschlichen Suchenden angezeigt wurden (Definition der Impression in der GSC‑Hilfe). Da Impressionen für Positionen 11 bis 100 (durch Bots) wegfallen, steigt die durchschnittliche Position (siehe auch Search Engine Journal, 15.09.2025 und Brodie Clark auf X). Die GSC‑Daten spiegeln nun mehr menschliche Impressionen und weniger Bot‑Aktivität wider.
  • Neubewertung der „Großen Entkopplung“ (im Original: „Great Decoupling“): Diese Beobachtung wirft ein neues Licht auf die Debatte um die „Große Entkopplung“, also steigende Impressionen ohne entsprechende Klicks (u. a. durch AI Overviews; vgl. Search Engine Land, 21.04.2025, Search Engine Land, 15.05.2025, Search Engine Roundtable, 03.06.2025). Brodie Clark argumentiert, dass die bisherigen Spitzen bei Desktop‑Impressionen teilweise durch Bots von SEO‑ und KI‑Analysetools verursacht wurden, die 100‑Ergebnis‑Seiten luden und so weit mehr Impressionen registrierten als eine normale 10‑Ergebnis‑Seite. In einigen Beispielen sanken Desktop‑Impressionen um über 200.000 täglich – der Umfang der Bot‑Impressionen sei „verblüffend“ (vgl. Beispiel‑Chart auf X).
Siehe auch  Geburtsdatum als Pflichtfeld in Webshops oft rechtswidrig

Für Website‑Betreiber bedeutet das: GSC‑Daten, die wir oft als „First‑Party“ betrachteten, waren stärker als angenommen durch Bot‑Traffic beeinflusst. Leicht verzerrt bleiben Daten für Top‑Rankings, da die erste SERP‑Seite weiterhin für Bots zugänglich ist.

Was du jetzt wirklich tun kannst – kurz & ohne Tool‑Panik

Diese Veränderungen zwingen uns, unsere Herangehensweise an SEO‑Analysen neu zu denken. Hier sind konkrete Empfehlungen für die Leser, die täglich mit SEO‑Tools arbeiten:

Wichtigster Punkt zuerst: Die Google Search Console funktioniert. Google hat nur geändert, wie viele Ergebnisse eine SERP‑Seite auf einmal lädt. Dadurch werden tiefe Positionen seltener als Impression gezählt. Dein realer Traffic bleibt davon in der Regel unberührt.

Drei Sätze, die du intern sofort sagen kannst

  1. „Wir sehen weniger Desktop‑Impressions, aber der Traffic ist stabil – das ist eine Zählweise‑Änderung, kein Ranking‑Einbruch.“
  2. „Wir bewerten künftig die Abdeckung in den Top‑20 statt ‚Keywords in den Top‑100‘.“
  3. „Wir kennzeichnen den 13./14.09. als Methoden‑Break in den Reports.“

60‑Sekunden‑Check (wirklich nur das Nötigste)

  • In GSC zwei Zahlen vergleichen (Device: Desktop; Search‑Typ: Web – nicht Bild/Video/News/Discover): Impressions und Klicks 7 Tage davor vs. 7 Tage danach (Warum wichtig: Impressions = Sichtbarkeit (wie oft du auf einer geladenen SERP‑Seite erscheinst), Klicks = tatsächliche Auswahl. Zusammen erkennst du, ob es nur eine Zählweisen‑Änderung ist – Impressions↓ bei Klicks stabil – oder ob die Anklickbarkeit/Nachfrage leidet – Klicks↓.)
  • In GA4: Sessions/Conversions im selben Zeitraum.
    Warum wichtig: GA4 misst reale Besuche und Zielerreichungen – unabhängig von der SERP‑Zählweise. Stabil = kein realer Einbruch; ↓ = echte Nachfrage oder On‑Site‑Hürden prüfen. Interpretation: Klicks/Sessions stabil⇒ alles gut; Klicks gehen nach unten (fallen im Vergleichszeitraum) ⇒ Snippet (Title/Description) & Wettbewerber prüfen.
Siehe auch  Adhocracy+ – Ihre digitale Plattform für Bürgerbeteiligung

Was du heute umstellst (ohne Over‑Engineering)

  • Zielgröße:Top‑20‑Abdeckung (non‑Brand)“ wird Leitkennzahl im Monatsbericht.
  • Notiz im Report: „Mess‑Break 13./14.09. – tiefe Impressionen werden seltener gezählt.“
  • Nur dort tiefer messen, wo es sich lohnt: bei euren Umsatz‑Keywords (‚Money‑Keywords‘). Für alle anderen Suchbegriffe reichen in der Regel die GSC‑Daten.

Formulierung für den Report (zum direkten Einbauen)

Seit 13./14.09. zeigt Google pro SERP weniger Ergebnisse auf einmal. Da auf Seite 1 nur noch 10 Treffer ausgeliefert werden, werden Positionen 11–100 seltener auf einer geladenen Seite angezeigt und deshalb seltener als Impression gezählt. Deshalb sinken Desktop‑Impressions, während Klicks/Sessions stabil bleiben. Wir stellen die KPI auf Top‑20‑Abdeckung um und investieren in Snippet‑Tests sowie interne Verlinkung auf Seiten mit Umsatzpotenzial.

No‑Gos (spart Zeit und Nerven)

  • Keine Krisen‑E‑Mails wegen „Impressions runter“.
  • Keine flächendeckenden Tiefen‑Crawls ohne Business‑Nutzen.
  • Keine KPI‑Inflation – ein klarer Fokus genügt.

Fazit: Eine Chance für präzisere Analysen

Die Änderung am &num=100‑Parameter ist mehr als eine technische Feinheit – sie ist ein Wink mit dem Zaunpfahlvon Google, die Abhängigkeit vom automatisierten Scraping zu überdenken und sich auf authentischere Daten zu konzentrieren.

Kurzfristig sind die Herausforderungen für Tool‑Anbieter und die Verwirrung in den Daten unbestritten. Langfristig bietet die Neuausrichtung die Chance auf präzisere, menschenzentrierte Analysen. Nicht jede beeindruckend hohe Zahl hat echten Wert. Jetzt ist die Zeit, den Fokus auf die Kennzahlen zu legen, die den Unternehmenserfolg direkt beeinflussen – und das Verhalten der tatsächlichen Zielgruppe widerspiegeln.

Die „Große Entkopplung“ war möglicherweise nicht nur eine Folge von AI Overviews, sondern auch ein Spiegel massiver Bot‑Aktivität. Da sich der Nebel lichtet, gewinnen wir eine klarere Sicht auf die echte Performance unserer Websites – und konzentrieren uns auf das, was wirklich zählt: echte Besucher, echte Interaktionen, echte Konversionen.

Stacy Connor

Geschrieben von Laura Schneider

Laura Schneider ist ebenfalls eine versierte Journalistin und Online-Redakteurin, die sich auf die Bereiche Wirtschaft, Politik und Gesellschaft konzentriert. Nach ihrem Studium der Politikwissenschaften an der Freien Universität Berlin entschied sie sich, ihre Leidenschaft für das Schreiben und ihre Neugierde für aktuelle Themen im Journalismus zu verfolgen. Sie absolvierte ein Volontariat bei einer angesehenen Tageszeitung und konnte so wertvolle praktische Erfahrungen in der Redaktion sammeln.

The Google Web Search homepage in a tablet

Google-Ranking 2025: Gerichtsdokumente enthüllen die Macht von Nutzersignalen