Google ściął „widok 100 wyników” do 10. Co to zmienia dla SEO i narzędzi SEO?
Google wyłączył parametr num=100 oraz ograniczył efektywnie dostęp do SERP-ów do 10 wyników na stronę. Zmiana zaczęła wypływać do branży około 10–14 września 2025 r. i od razu uderzyła w rank trackery, scrapersy i wszelkie narzędzia bazujące na hurtowym zbieraniu wyników. Google nie opublikował oficjalnego komunikatu, ale zbieżne raporty z branży i testów terenowych są jasne: koniec wygodnego podglądu 100 wyników na jednej stronie, trudniejszy dostęp do dalszych stron i wyższe koszty pozyskiwania danych.
Co dokładnie się stało (technicznie i praktycznie)
- Parametr &num=100 przestał działać – próby wymuszenia 100 wyników na stronę wracają do 10 (domyślności). To nie jest „glitch w matriksie”, lecz globalna modyfikacja zachowania wyszukiwarki.
- Dostęp do dalszych stron SERP jest ograniczany/agresywnie „przycinany” – raporty wskazują, że po pierwszej lub drugiej stronie bywa „pustynia”. Dla ludzi to tylko więcej klikania. Dla botów – twarda ściana.
- Zmiana wpisuje się w szerszy trend anty-scrapingowy z 2025 r. – już w styczniu wiele narzędzi zaliczyło blackouty po blokadach prostych scraperów (wymóg JS, throttling, reguły anty-botowe). Dzisiejsze ograniczenie stron/wyników to kolejna śruba.
Skutki dla SEO „organicznego” (Twoje strony, Twoje dane)
1) Metryki w GSC i analityce
- Spadek wyświetleń (impressions) i „przemeblowanie” średniej pozycji – jeśli Google pokazuje mniej wyników na stronę i/lub ucina głębokie strony, wielu „dalekich” odsłon zwyczajnie nie będzie. To statystyka, nie kara algorytmu. W logach zobaczysz mniejszą „długą kitę” zapytań.
- Mniej „egzotycznych” fraz długiego ogona w raportach – ograniczona widoczność dalej niż top 10–20 powoduje, że część marginalnych ekspozycji zwyczajnie znika z agregatów.
2) Zachowania użytkowników
- Mniej „turystyki po stronach 3–10” – realnie większość ludzi i tak nie klikała dalej, ale dla nisz i researchu B2B bywało to ważne. Teraz ciężej „załapać się” na te rzadkie kliknięcia z głębi.
3) Strategia treści
- Jeszcze większa presja na Top 10 – „powyżej zgięcia” (pierwsza strona) i lewa kolumna CTR-u stają się wszystkim. Jeżeli Twoje treści siedziały w okolicach miejsc 11–30 i żyły z rzadkich ekspozycji, musisz je przepchnąć w górę albo przebudować.
- Priorytet EEAT i intent match – gdy okno ekspozycji się zwęża, Google wybiera bardziej „pewniaków”: trafność intencji, doświadczenie autora i reputacja domeny ważą więcej… po prostu jest mniej miejsc do rozdania.
Skutki dla narzędzi SEO (rank trackery, keyword tools, SERP scrapers)
1) Rank tracking i koszty operacyjne
- Jedno zapytanie ≠ pełny SERP – wcześniej num=100 pozwalał jednym strzałem zebrać top 100. Teraz, żeby uzyskać podobny zasięg, narzędzia muszą iterować (więcej zapytań, więcej rotacji IP, więcej JS), czyli wyższy koszt i mniejsza stabilność.
- Częstsze luki w danych / opóźnienia – to kontynuacja zimy dla scraperów rozpoczętej w styczniu (blokady, wymogi JS). Ograniczenie stron tylko to pogłębia.
2) Estymacja udziału w głosie (SoV), widoczność, „volatility”
- Zawężone okno pomiaru – gdy widzisz głównie top 10, wskaźniki widoczności będą bardziej skokowe (mała zmiana pozycji w top 10 = duża zmiana SoV).
- Mniej danych o SERP-features w głębi – mapki, People Also Ask, wideo-karuzele na dalszych stronach stają się „niewidzialne” dla prostych kolektorów.
3) Badania słów kluczowych
- Rzadziej odkryjesz „perły” z głębokich SERP – narzędzia oparte na scrapingu wyników będą mieć chudsze zbiory long-tail. Silniej wygrają ci, którzy łączą clickstream, dane własne i modele predykcyjne.
Co robić: taktyka bez ściemy
A. Pomiar i raportowanie
- Przestaw rank tracking na „Top-10 first” – monitoruj częściej mniejszy koszyk fraz krytycznych, z rozszerzeniami (lokalizacja, urządzenie, SERP-features).
- Rozdziel w raportach: „spadek metryki” vs „zmiana sposobu liczenia” – oznacz wrzesień 2025 jako punkt załamania metodologii. To oszczędzi nieporozumień z klientami/zarządem. (Dowód na zmianę metodologiczną: zanik num=100 i branżowe raporty o ograniczeniu stron).
B. Zbieranie danych
- Mniej „gołego” scrapingu, więcej hybrydy:
- Clickstream + panel data (jeśli masz dostęp),
- Search Console (API) jako główne źródło long-tail,
- Logi serwera i on-site search do odkrywania tematów.
- Clickstream + panel data (jeśli masz dostęp),
- Renderowanie JS po stronie zbierania – Google ewidentnie utrudnia życie botom bez JS. Jeśli musisz scrapować, licz się z koniecznością pełnego browser automation i wyższymi kosztami. (Kontekst: styczniowe blokady).
C. Strategia treści i technikalia
- Zamiast „farmy artykułów” pod długi ogon – tematyczne klastry: jeden mocny hub + satelity, internal linking, spójne UX.
- Pełen intent-fit i unikalność – krótkie, ale gęste semantycznie teksty wygrywają z „puchnięciem” word count.
- SERP-features-first – planuj treści pod featured snippets, FAQ, wideo i obrazy, bo to one często decydują o realnym CTR w top 10.
D. Operacyjnie dla narzędzi/stacku
- Zarezerwuj budżet na wzrost kosztów danych – rank trackery i platformy keywordowe będą przerzucać koszty.
- Audyt dostawców – zapytaj wprost:
- jak obchodzą limit stron/wyników,
- jak często odświeżają top 10,
- czy łączą GSC/clickstream,
- jak oznaczają „metodology break” od IX.2025.
- jak obchodzą limit stron/wyników,
- Własne „private SERP snapshots” – tam, gdzie zgodne z prawem i umowami: ogranicz liczbę słów, zwiększ częstotliwość, zapisuj tylko to, co naprawdę potrzebne (pozycja, tytuł, URL, feature flags w top 10).
Mity vs. rzeczywistość
- „To kara algorytmiczna” – nie. Spadki wyświetleń w GSC pochodzą w dużej mierze z mniejszej liczby renderowanych wyników, nie z obniżenia jakości witryny.
- „SEO się skończyło” – nie. Po prostu maleje „powierzchnia ekspozycji”. Walka przenosi się do top 10 i do feature’ów.
- „Wystarczy ustawić 100 wyników w ustawieniach konta Google” – już nie. Ta opcja przestała działać przewidywalnie; num=100 jest martwe.
Co śledzić dalej
- Ewentualne doprecyzowanie przez Google – branża odnotowuje brak oficjalnego oświadczenia w chwili pisania; jeśli się pojawi, może wyjaśnić, czy limit stron to test czy „nowa normalność”.
- Wpływ DMA w UE i kolejne roszady SERP – Google od miesięcy „przestawia meble” w wynikach w związku z regulacjami; to środowisko zmian, nie jednorazowy incydent
